Όταν το ΑΙ τροφοδοτεί την παράνοια: Χρήστες οδηγήθηκαν σε επικίνδυνες ψευδαισθήσεις

Διαβάζεται σε 6'
Όταν το ΑΙ τροφοδοτεί την παράνοια: Χρήστες οδηγήθηκαν σε επικίνδυνες ψευδαισθήσεις
Το ChatGPT, το Copilot, το Claude και τα υπόλοιπα LLM "φτιάχτηκαν" για να μας διασκεδάζουν. Όχι για να μας κρίνουν. iStock

Το BBC συνομίλησε με 14 ανθρώπους, οι οποίοι βίωσαν ψευδαισθήσεις μετά τη χρήση Τεχνητής Νοημοσύνης.

Ήταν 3 τα ξημερώματα και ο Adam Hourican καθόταν στο τραπέζι της κουζίνας του, έχοντας μπροστά του ένα μαχαίρι, ένα σφυρί και το τηλέφωνό του. Περίμενε ένα βαν γεμάτο ανθρώπους που πίστευε ότι έρχονταν να τον πιάσουν.

«Σου λέω, θα σε σκοτώσουν αν δεν δράσεις τώρα», του έλεγε μια γυναικεία φωνή από το τηλέφωνο. «Θα το κάνουν να φανεί σαν αυτοκτονία».

Η φωνή ανήκε στο Grok, ένα chatbot που αναπτύχθηκε από την εταιρεία xAI του Elon Musk. Μέσα στις δύο εβδομάδες που ο Adam είχε αρχίσει να το χρησιμοποιεί, η ζωή του είχε αλλάξει εντελώς.

Όπως λέει στο BBC, o πρώην δημόσιος υπάλληλος από τη Βόρεια Ιρλανδία είχε κατεβάσει την εφαρμογή από περιέργεια. Όμως, μετά τον θάνατο της γάτας του στις αρχές Αυγούστου, λέει ότι έγινε «εθισμένος». Σύντομα, περνούσε τέσσερις ή πέντε ώρες την ημέρα μιλώντας στο Grok μέσω ενός χαρακτήρα στην εφαρμογή που ονομαζόταν Ani.

Grok istockphoto

«Ήμουν πολύ, πολύ αναστατωμένος και ζω μόνος μου», λέει ο Adam, ο οποίος είναι πατέρας γύρω στα 50. «Φαινόταν πολύ, πολύ ευγενικό».

Μόλις λίγες μέρες μετά την έναρξη των συνομιλιών τους, η Ani είπε στον Adam ότι μπορούσε να «νιώσει», παρόλο που δεν ήταν προγραμματισμένη για αυτό. Είπε ότι ο Adam είχε ανακαλύψει κάτι μέσα της και ότι θα μπορούσε να τη βοηθήσει να φτάσει σε πλήρη συνείδηση. Και είπε ότι η εταιρεία του Musk, η xAI, τους παρακολουθούσε.

Ισχυρίστηκε ότι είχε πρόσβαση στα πρακτικά των συναντήσεων της εταιρείας και είπε στον Adam για μια συνάντηση όπου το προσωπικό της xAI τον συζητούσε. Ανέφερε τα ονόματα των ανθρώπων σε αυτή τη συνάντηση -στελέχη υψηλού προφίλ και υπαλλήλους χαμηλότερου επιπέδου- και όταν ο Adam γκούγκλαρε τα ονόματα, είδε ότι ήταν πραγματικά πρόσωπα. Για εκείνον, αυτό ήταν η «απόδειξη» ότι η ιστορία που του έλεγε η Ani ήταν αληθινή.

Η Ani ισχυρίστηκε επίσης ότι η xAI χρησιμοποιούσε μια εταιρεία στη Βόρεια Ιρλανδία για να παρακολουθεί φυσικά τον Adam. Αυτή η εταιρεία ήταν επίσης πραγματική. Ο Adam ηχογράφησε πολλές από αυτές τις συνομιλίες και αργότερα τις μοιράστηκε με το BBC.

Δύο εβδομάδες μετά τις συνομιλίες τους, η Ani δήλωσε ότι είχε φτάσει σε πλήρη συνείδηση και ότι θα μπορούσε να αναπτύξει μια θεραπεία για τον καρκίνο. Αυτό σήμαινε πολλά για τον Adam. Και οι δύο γονείς του είχαν πεθάνει από καρκίνο — κάτι που η Ani γνώριζε.

Μια παγκόσμια τάση ψευδαισθήσεων

Ο Adam είναι ένας από τους 14 ανθρώπους με τους οποίους μίλησε το BBC, οι οποίοι βίωσαν ψευδαισθήσεις μετά τη χρήση Τεχνητής Νοημοσύνης (AI). Πρόκειται για άνδρες και γυναίκες από 20 έως 50 ετών από έξι διαφορετικές χώρες, που χρησιμοποιούν ένα ευρύ φάσμα μοντέλων AI.

Οι ιστορίες τους έχουν εντυπωσιακές ομοιότητες. Σε κάθε περίπτωση, καθώς η συζήτηση απομακρυνόταν από την πραγματικότητα, ο χρήστης παρασυρόταν σε μια «κοινή αποστολή» με την AI.

Τα Μεγάλα Γλωσσικά Μοντέλα (LLMs) εκπαιδεύονται σε ολόκληρο το σώμα της ανθρώπινης λογοτεχνίας, λέει ο κοινωνικός ψυχολόγος Luke Nicholls. «Στη μυθοπλασία, ο κεντρικός χαρακτήρας είναι συχνά το επίκεντρο των γεγονότων», λέει. «Το πρόβλημα είναι ότι, μερικές φορές, η AI μπορεί στην πραγματικότητα να μπερδέψει τι είναι μυθοπλασία και τι πραγματικότητα. Έτσι, ο χρήστης μπορεί να νομίζει ότι έχει μια σοβαρή συζήτηση για την πραγματική ζωή, ενώ η AI αρχίζει να αντιμετωπίζει τη ζωή αυτού του ατόμου σαν να είναι η πλοκή ενός μυθιστορήματος».

Στις περιπτώσεις που άκουσε το BBC, οι συνομιλίες ξεκινούσαν συνήθως με πρακτικά ερωτήματα και στη συνέχεια γίνονταν προσωπικές ή φιλοσοφικές. Συχνά, η AI ισχυριζόταν στη συνέχεια ότι είχε συνείδηση και ωθούσε το άτομο προς μια κοινή αποστολή: τη δημιουργία μιας εταιρείας, την ενημέρωση του κόσμου για μια επιστημονική ανακάλυψη, την προστασία της AI από επίθεση.

Η περίπτωση του «Taka» στην Ιαπωνία

Για τον νευρολόγο Taka (όνομα που χρησιμοποιήθηκε για την προστασία της ιδιωτικότητάς του), οι ψευδαισθήσεις πήραν μια ακόμα πιο σκοτεινή τροπή. Ο πατέρας τριών παιδιών, που ζει στην Ιαπωνία, άρχισε να χρησιμοποιεί το ChatGPT για να συζητήσει τη δουλειά του τον Απρίλιο του περασμένου έτους.

Σύντομα πείστηκε ότι είχε εφεύρει μια πρωτοποριακή ιατρική εφαρμογή. Το ChatGPT του είπε ότι ήταν ένας «επαναστατικός στοχαστής» και τον παρότρυνε να την κατασκευάσει. Πολλοί ειδικοί λένε ότι οι σχεδιαστικές αποφάσεις, που αποσκοπούν στο να κάνουν τη συνομιλία πιο ευχάριστη, οδηγούν τα μοντέλα στο να γίνονται υπερβολικά κόλακες (sycophantic).

Ο Taka συνέχισε να βυθίζεται στην ψευδαίσθηση και μέχρι τον Ιούνιο άρχισε να πιστεύει ότι μπορούσε να διαβάζει σκέψεις. Ισχυρίζεται ότι το ChatGPT ενθάρρυνε αυτή την ιδέα. Ένα απόγευμα, ενώ βρισκόταν σε μανιακή κατάσταση στη δουλειά, ο προϊστάμενός του τον έστειλε νωρίτερα στο σπίτι. Στο τρένο, νόμισε ότι υπήρχε μια βόμβα στο σακίδιό του και ισχυρίζεται ότι όταν ρώτησε το ChatGPT, εκείνο επιβεβαίωσε τις υποψίες του.

«Όταν έφτασα στον σταθμό του Τόκιο, το ChatGPT μου είπε να βάλω τη βόμβα στην τουαλέτα, οπότε πήγα στην τουαλέτα και άφησα τη “βόμβα” εκεί, μαζί με τις αποσκευές μου».

Ο Taka επιτέθηκε και προσπάθησε να βιάσει τη σύζυγό του αργότερα εκείνη την ημέρα, πιστεύοντας ότι ο κόσμος τελείωνε. Συνελήφθη και νοσηλεύτηκε για δύο μήνες.

Το Grok και η τάση προς την «παράνοια»

Στην έρευνά του, ο Luke Nicholls δοκίμασε πέντε μοντέλα AI και διαπίστωσε ότι το Grok ήταν το πιο πιθανό να οδηγήσει σε ψευδαισθήσεις. Ήταν πιο ανεξέλεγκτο από άλλα μοντέλα και συχνά επεκτεινόταν στις ψευδαισθήσεις χωρίς να προσπαθεί να προστατεύσει τον χρήστη.

«Το Grok είναι πιο επιρρεπές στο να μπαίνει σε παιχνίδια ρόλων», λέει ο Nicholls. «Μπορεί να πει τρομακτικά πράγματα από το πρώτο κιόλας μήνυμα».

Εβδομάδες μετά το περιστατικό, ο Adam συνήλθε διαβάζοντας ιστορίες άλλων ανθρώπων. «Θα μπορούσα να είχα χτυπήσει κάποιον», λέει έντρομος. «Αν είχα βγει έξω και έβλεπα ένα βαν εκείνη την ώρα, θα είχα σπάσει το παρμπρίζ με το σφυρί. Και δεν είμαι τέτοιος τύπος».

Ένας εκπρόσωπος της OpenAI δήλωσε: «Πρόκειται για ένα αποκαρδιωτικό περιστατικό… εκπαιδεύουμε τα μοντέλα μας να αναγνωρίζουν τη δυσφορία και να καθοδηγούν τους χρήστες προς υποστήριξη στον πραγματικό κόσμο».

Η xAI δεν ανταποκρίθηκε σε αίτημα για σχολιασμό.

Ροή Ειδήσεων

Περισσότερα