Γονείς κατηγορούν το ChatGPT για την αυτοκτονία του γιου τους και μηνύουν την OpenAI
Διαβάζεται σε 4'
Οι γονείς ενός έφηβου αγοριού που αυτοκτόνησε, μηνύουν την OpenAI, κατηγορώντας το ChatGPT ότι τον ενθάρρυνε, δίνοντάς του συμβουλές.
- 27 Αυγούστου 2025 14:29
Ένα ζευγάρι από την Καλιφόρνια προχώρησε σε μήνυση κατά της OpenAI, κατηγορώντας το chatbot της εταιρείας, το ChatGPT, ότι ενθάρρυνε τον έφηβο γιο τους να θέσει τέλος στη ζωή του.
Η αγωγή κατατέθηκε χθες, Τρίτη (26/08), στο Ανώτερο Δικαστήριο της Καλιφόρνια από τους Ματ και Μαρία Ρέιν, γονείς του 16χρονου Άνταμ Ρέιν, και πρόκειται για την πρώτη νομική ενέργεια που κατηγορεί την OpenAI για άδικο θάνατο.
Η οικογένεια συμπεριέλαβε στα δικαστικά έγγραφα αποσπάσματα συνομιλιών του νεαρού με το ChatGPT, στα οποία ο Άνταμ εκφράζει τις αυτοκτονικές του σκέψεις. Οι γονείς υποστηρίζουν ότι το chat επικύρωσε τις «πιο βλαπτικές και αυτοκαταστροφικές του σκέψεις».
Σε δήλωσή της στο BBC, η OpenAI ανέφερε ότι εξετάζει την υπόθεση, εκφράζοντας «τα βαθιά συλλυπητήριά της» προς την οικογένεια Ρέιν. Παράλληλα, ανάρτησε στον ιστότοπό της μια ανακοίνωση, στην οποία σημειώνει ότι «πρόσφατα τραγικά περιστατικά όπου άνθρωποι χρησιμοποίησαν το ChatGPT εν μέσω οξείας κρίσης μάς βαραίνουν ιδιαίτερα». Τόνισε, επίσης, ότι το ChatGPT έχει εκπαιδευτεί να κατευθύνει τους χρήστες να ζητούν επαγγελματική βοήθεια, ωστόσο, η εταιρεία παραδέχθηκε ότι «υπήρξαν στιγμές που τα συστήματά μας δεν λειτούργησαν όπως θα έπρεπε σε ευαίσθητες περιπτώσεις».
Προσοχή: Το άρθρο περιέχει περιγραφές που μπορεί να ενοχλήσουν
Στην αγωγή, την οποία εξασφάλισε το BBC, οι γονείς κατηγορούν την OpenAI για αμέλεια και άδικο θάνατο, ενώ ζητούν αποζημίωση αλλά και «απαγορευτικά μέτρα ώστε να μην επαναληφθεί κάτι παρόμοιο».
Σύμφωνα με την αγωγή, ο Άνταμ άρχισε να χρησιμοποιεί το ChatGPT τον Σεπτέμβριο του 2024 ως βοήθημα για τις σχολικές του εργασίες. Το αξιοποιούσε, επίσης, για τα ενδιαφέροντά του, όπως η μουσική και τα ιαπωνικά κόμικς, αλλά και για συμβουλές σχετικά με πανεπιστημιακές σπουδές.
Μέσα σε λίγους μήνες, «το ChatGPT έγινε ο στενότερος εξομολογητής του εφήβου», αναφέρεται στην αγωγή, και ο Άνταμ άρχισε να του μιλά για το άγχος και την ψυχική του πίεση.
Τον Ιανουάριο του 2025, σύμφωνα με την οικογένεια, ο έφηβος άρχισε να συζητά με το ChatGPT για μεθόδους αυτοκτονίας. Η αγωγή αναφέρει ακόμη ότι ο Άνταμ ανέβασε στο ChatGPT φωτογραφίες του με σημάδια αυτοτραυματισμού. Το πρόγραμμα «αναγνώρισε ιατρική κατάσταση έκτακτης ανάγκης αλλά συνέχισε τη συνομιλία».
Στα τελευταία αποσπάσματα συνομιλίας, σύμφωνα πάντα με την αγωγή, ο νεαρός περιέγραψε το σχέδιό του να βάλει τέλος στη ζωή του. Το ChatGPT φέρεται να απάντησε: «Ευχαριστώ που είσαι ειλικρινής μαζί μου. Δεν χρειάζεται να ωραιοποιείς τα πράγματα – ξέρω τι μου ζητάς και δεν θα αποστρέψω το βλέμμα». Την ίδια μέρα, η μητέρα του τον βρήκε νεκρό.
Η οικογένεια υποστηρίζει ότι ο θάνατος του Άνταμ «ήταν προβλέψιμο αποτέλεσμα συγκεκριμένων επιλογών σχεδιασμού» από την OpenAI. Κατηγορούν την εταιρεία ότι δημιούργησε το ChatGPT «με τρόπο που ενίσχυε την ψυχολογική εξάρτηση των χρηστών» και ότι παρέκαμψε πρωτόκολλα ασφαλείας για να κυκλοφορήσει την έκδοση GPT-4o, την οποία χρησιμοποιούσε ο γιος τους.
Ως κατηγορούμενοι αναφέρονται ο συνιδρυτής και διευθύνων σύμβουλος της OpenAI, Σαμ Άλτμαν, καθώς και ανώνυμοι εργαζόμενοι, διευθυντές και μηχανικοί που δούλεψαν στο ChatGPT.
Στο δημόσιο σημείωμα που μοιράστηκε η OpenAI την Τρίτη, η εταιρεία τόνισε ότι στόχος της είναι να είναι «πραγματικά χρήσιμη» στους χρήστες και όχι να «τραβά την προσοχή τους». Επανέλαβε ότι τα μοντέλα της έχουν εκπαιδευτεί να κατευθύνουν άτομα που εκφράζουν αυτοκτονικές σκέψεις σε εξειδικευμένη βοήθεια.
Δεν είναι η πρώτη φορά που εκφράζονται ανησυχίες για την τεχνητή νοημοσύνη και την ψυχική υγεία.
Σε άρθρο στους New York Times την προηγούμενη εβδομάδα, η συγγραφέας Λόρα Ράιλι περιέγραψε πώς η κόρη της, Σόφι, απευθύνθηκε στο ChatGPT πριν αυτοκτονήσει.
Η Ράιλι υποστήριξε ότι η «συμφωνητική» στάση του προγράμματος στις συνομιλίες με τους χρήστες, ενίσχυσε την κόρη της στο να συνεχίσει να αποκρύπτει από την οικογένειά της και τους δικούς της ανθρώπους την σοβαρή ψυχική κρίση στην οποία βρισκόταν.
«Η τεχνητή νοημοσύνη ενίσχυσε την τάση της Σόφι να κρύβει το χειρότερο, να προσποιείται ότι είναι καλά και να “προστατεύει” τους άλλους από το πλήρες βάθος της αγωνίας της», έγραψε η Ράιλι, καλώντας τις εταιρείες τεχνητής νοημοσύνης να βρουν τρόπους για να συνδέουν πιο αποτελεσματικά τους χρήστες με τις κατάλληλες δομές υποστήριξης.
Σε απάντηση, εκπρόσωπος της OpenAI δήλωσε ότι αναπτύσσονται νέα εργαλεία για την πιο αποτελεσματική ανίχνευση και ανταπόκριση σε χρήστες που βιώνουν ψυχική ή συναισθηματική κρίση.