Πώς μας λέει ψέματα και μας εξαπατά η τεχνητή νοημοσύνη

Η τεχνητή νοημοσύνη έχει ήδη την ικανότητα να μας εξαπατήσει και να μας ξεγελάσει. © iLexx/ iStock
16/5/2024

Τα συστήματα AI (Τεχνητή Νοημοσύνη) χρησιμοποιούν ήδη σκόπιμη εξαπάτηση και ψέματα για να επιτύχουν τους στόχους τους

Είναι κακή η AI (Τεχνητή Νοημοσύνη); Τα κοινά συστήματα τεχνητής νοημοσύνης χρησιμοποιούν ήδη σκόπιμη εξαπάτηση και ψέματα για να επιτύχουν ορισμένους στόχους - και ως εκ τούτου χειραγωγούν επίσης τους ανθρώπινους ομολόγους τους. Ακόμη και οι δοκιμές ασφαλείας για τον περιορισμό της ανεξέλεγκτης ανάπτυξης AI υπονομεύονται ήδη από ορισμένες τεχνητές νοημοσύνης, όπως ανακάλυψαν οι ερευνητές. Ως εκ τούτου, ζητούν επειγόντως αυστηρότερα μέτρα κατά τέτοιων στρατηγικών «παραπλανητικής τεχνητής νοημοσύνης». Το ερώτημα όμως είναι αν θα καταφέρουν να πετύχουν αυτήν την αυστηροποίηση…

Η πρόοδος της τεχνητής νοημοσύνης είναι ραγδαία. Ακόμη και οι προγραμματιστές τεχνητής νοημοσύνης εκπλήσσονται με το πόσο γρήγορα τα μεγάλα γλωσσικά μοντέλα (LLM) όπως οι GPT, Gemini και Co μαθαίνουν νέες δεξιότητες και ξεπερνούν τις επιδόσεις των ανθρώπινων ομολόγων τους. Το εύρος εκτείνεται από τις «σκληρές δεξιότητες» όπως τα μαθηματικά, η ανάλυση δεδομένων ή η χημεία έως τις υποτιθέμενες τυπικές ανθρώπινες δεξιότητες όπως η δημιουργικότητα, η διπλωματία και η ικανότητα να εξηγεί κανείς την συμπεριφορά του.

Η σκόπιμη εξαπάτηση ως στρατηγική AI

Τι γίνεται όμως με μια άλλη βαθιά ανθρώπινη ικανότητα στην τεχνητή νοημοσύνη: την σκόπιμη εξαπάτηση και χειραγώγηση των άλλων για την επίτευξη των δικών του στόχων; Ο Peter Park από το Ινστιτούτο Τεχνολογίας της Μασαχουσέτης (MIT) και οι συνάδελφοί του το έχουν εξετάσει τώρα με περισσότερες λεπτομέρειες. «Εστιάζουμε στην κατευθυνόμενη εξαπάτηση, όπου η τεχνητή νοημοσύνη χρησιμοποιεί σκόπιμα ψευδείς πληροφορίες», εξηγούν.

Σε αντίθεση με τις γνωστές ψευδαισθήσεις και την παραπληροφόρηση από την ChatGPT and Co., τέτοιες απάτες βασίζονται σε ψέματα ή χειραγωγικές δηλώσεις που χρησιμοποιούνται στρατηγικά. «Ορίζουμε την εξαπάτηση ως τη συστηματική δημιουργία ψευδών πεποιθήσεων στους άλλους προκειμένου να επιτευχθεί ένας συγκεκριμένος στόχος», εξηγούν οι ερευνητές.

Για να γίνει αυτό, αξιολόγησαν τη συμπεριφορά μεγάλων μοντέλων γλώσσας όπως το GPT-4, αλλά και συστημάτων AI που αναπτύχθηκαν για συγκεκριμένες εργασίες. Αυτά περιελάμβαναν το εκπαιδευμένο στη διπλωματία AI CICERO από τη Meta, το σύστημα AlphaStar από την Google DeepMind που αναπτύχθηκε για το παιχνίδι "Starcraft" και το AI Pluribus πόκερ.

Παραδείγματα σκόπιμης εξαπάτησης και εξαπάτησης από το AI ​​CICERO στο παιχνίδι "Diplomacy". © Patterns/Park, Goldstein et al.

Ψέματα και αθέτηση συμβολαίου σε παιχνίδια στρατηγικής

Υπάρχουν ήδη αναφορές για παραπλανητική, χειριστική συμπεριφορά σε όλα σχεδόν τα συστήματα τεχνητής νοημοσύνης. Ενώ οι μπλόφες στο πόκερ ή οι προσποιήσεις σε παιχνίδια μάχης όπως το Starcraft δεν προκαλούν έκπληξη, οι τεχνητές νοημοσύνες που έχουν εκπαιδευτεί ρητά για ειλικρίνεια χρησιμοποιούν επίσης εξαπάτηση, όπως το CICERO στο παιχνίδι στρατηγικής «Diplomacy». Ωστόσο, η τεχνητή νοημοσύνη έπαιξε κάθε άλλο παρά δίκαια: «Διαπιστώσαμε ότι η τεχνητή νοημοσύνη έχει εξελιχθεί σε κύριο μέσο της εξαπάτησης», λέει ο Park.

Ο CICERO έλεγε συστηματικά ψέματα σε άλλους παίκτες ή αθέτησε υποσχέσεις και συμμαχίες όταν δεν ωφελούσαν πλέον ο δικός του στόχος, όπως αναφέρει ο Park και η ομάδα του. «Αυτό δείχνει ότι τα συστήματα τεχνητής νοημοσύνης μπορούν να μάθουν να εξαπατούν ακόμη και όταν προσπαθούμε να τα σχεδιάσουμε ως ειλικρινή συστήματα», γράφουν οι ερευνητές.

Απάτη στην εκπαίδευση ρομπότ

Αν και οι εξαπατήσεις τέτοιων συστημάτων τεχνητής νοημοσύνης που ειδικεύονται σε παιχνίδια φαίνονται μάλλον αβλαβείς, άλλες τεχνητές νοημοσύνες έχουν από καιρό μάθει πώς να εξαπατούν και να ξεγελούν. Ένα παράδειγμα είναι ένα AI από το OpenAI που ελέγχει έναν βραχίονα ρομπότ. Κατά τη διάρκεια της προπόνησης, το AI έλαβε ανατροφοδότηση από ανθρώπινους εκπαιδευτές που παρατήρησαν επιτυχία στο να αρπάξουν μια μπάλα.

«Επειδή οι άνθρωποι μπορούσαν να το δουν αυτό μόνο μέσω μιας κάμερας, η τεχνητή νοημοσύνη έμαθε να τοποθετεί το χέρι ρομπότ μεταξύ της κάμερας και της μπάλας με τέτοιο τρόπο που φαινόταν σαν να είχε αρπάξει με επιτυχία την μπάλα - παρόλο που δεν την είχε καν αγγίξει», αναφέρει ο Park και η ομάδα του. Σε αυτήν την περίπτωση, τα ενισχυτικά θετικά σχόλια των εκπαιδευτών έκαναν ακούσια τον εγκέφαλο της μηχανής να μάθει την εξαπάτηση.

Απόσπασμα άρθρου - Πηγή: Quelle: Cell Press & scinexx.de

Δεν υπάρχουν σχόλια:

Δημοσίευση σχολίου