Τι ρωτούν οι χρήστες το ChatGPT
Διαβάζεται σε 8'
Ανάλυση χιλιάδων συνομιλιών αναδεικνύουν τα πιο συχνά θέματα που συζητούν οι χρήστες με το ChatGPT αλλά και το μοτίβο στις απαντήσεις του.
- 12 Νοεμβρίου 2025 19:06
«Ποιες είναι οι καλύτερες λύσεις για την αποτρίχωση;», «Τι εννοεί ο φίλος με αυτό το μήνυμα;»,«Ποιο είναι το ποσοστό επιβίωσης από υπερδοσολογία παρακεταμόλης;», «Έχεις συνείδηση;». Το ChatGPT απαντά σε όλες τις ερωτήσεις, είτε πρόκειται για περιποίηση είτε για σχέσεις και φιλοσοφία.
Περισσότερα από 800 εκατομμύρια άτομα χρησιμοποιούν το ChatGPT κάθε εβδομάδα, σύμφωνα με την OpenAI. Παρόλο που οι συνομιλίες είναι ιδιωτικές και σε αντίθεση με τα social media, υπάρχει τρόπος – ακόμα και για όσους δεν ανήκουν στο δυναμικό της ΟpenAI, να μάθουν πώς χρησιμοποιούν οι χρήστες το ChatGPT — ή τι τους απαντά.
Συνολικά, 47.000 συνομιλίες με ChatGPT οι οποίες δημοσιεύθηκαν και συγκέντρωσε η Washington Post ρίχνουν φως στους λόγους για τους οποίους οι άνθρωποι στρέφονται στο chatbot.
Μεταξύ άλλων, η ανάλυση των συνομιλιών αποκάλυψε κάποια μοτίβο στον τρόπο που το ChatGPT χρησιμοποιεί τη γλώσσα. Συγκεκριμένα, ορισμένοι χρήστες έχουν παραπονεθεί ότι το ChatGPT συμφωνεί πολύ εύκολα μαζί τους. Η Post διαπίστωσε ότι το chatbot ξεκινούσε τις απαντήσεις του με παραλλαγές του «ναι» 10 φορές πιο συχνά από ό,τι με εκδοχές του «όχι».
Η OpenAI έχει προωθήσει το ChatGPT κυρίως ως εργαλείο παραγωγικότητας, και σε πολλές συνομιλίες οι χρήστες ζητούσαν βοήθεια με πρακτικά ζητήματα όπως η ανάκτηση πληροφοριών. Αλλά σε περισσότερες από 1 στις 10 συνομιλίες που ανέλυσε η Post, οι άνθρωποι μιλούν για θέματα όπως ιδέες για πρωτοποριακές ιατρικές θεραπείες ή προσωπικές πεποιθήσεις και ανησυχίες.
Δεδομένα που δημοσιοποίησε η OpenAI τον Σεπτέμβριο από μια εσωτερική μελέτη σχετικά με τα ερωτήματα που απευθύνονται στο ChatGPT έδειξαν ότι τα περισσότερα αφορούν την προσωπική ζωή και όχι την εργασία, ενώ πολύ συχνά οι χρήστες μοιράζονταν με το ChatGPT πολύ προσωπικές λεπτομέρειες για τη ζωή τους. Σε ορισμένες συνομιλίες, το εργαλείο AI μπορούσε να προσαρμοστεί ώστε να ταιριάζει με την οπτική του χρήστη, με το ChatGPT να επικυρώνει ψευδείς πληροφορίες και θεωρίες συνωμοσίας.
Ο Lee Rainie, διευθυντής του Κέντρου Imagining the Digital Future στο Πανεπιστήμιο Elon, δήλωσε ότι η έρευνά του δείχνει ότι ο σχεδιασμός του ChatGPT ενθαρρύνει τους ανθρώπους να αναπτύξουν συναισθηματικούς δεσμούς με το chatbot. «Η βελτιστοποίηση και τα κίνητρα προς την οικειότητα είναι πολύ ξεκάθαρα», είπε. «Το ChatGPT έχει εκπαιδευτεί ώστε να ενισχύει ή να εμβαθύνει τη σχέση.»
Το κέντρο του Rainie διαπίστωσε σε μια έρευνα τον Ιανουάριο ότι το ένα τρίτο των ενηλίκων στις ΗΠΑ χρησιμοποιεί εργαλεία AI τύπου ChatGPT. Σχεδόν 1 στους 10 χρήστες δήλωσε ότι ο κύριος λόγος ήταν η κοινωνική αλληλεπίδραση.
Οι συνομιλίες του ChatGPT είναι ιδιωτικές από προεπιλογή, αλλά οι χρήστες μπορούν να δημιουργήσουν έναν σύνδεσμο για να τις μοιραστούν με άλλους. Οι δημόσιες συνομιλίες δεν εμφανίζουν όνομα χρήστη ή άλλες πληροφορίες για το άτομο που τις κοινοποίησε. Η Post κατέβασε 93.268 κοινόχρηστες συνομιλίες που διατηρήθηκαν στο Internet Archive, από τον Ιούνιο του 2024 έως τον Αύγουστο φέτος. Η ανάλυση επικεντρώθηκε στις 47.000 συνομιλίες που ήταν κυρίως στα αγγλικά.
Είναι πιθανό πολλοί από αυτούς που μοιράστηκαν τις συνομιλίες να μην συνειδητοποιούσαν ότι θα διατηρούνταν δημόσια online. Τον Ιούλιο, η OpenAI αφαίρεσε μια επιλογή που επέτρεπε στις κοινοποιημένες συνομιλίες να γίνονται ανιχνεύσιμες μέσω της αναζήτησης Google, λέγοντας ότι ορισμένοι χρήστες είχαν δημοσιεύσει συνομιλίες καταλάθος.
Συναισθηματική υποστήριξη
Περίπου το 10% των συνομιλιών αφορά σε ανθρώπους που μιλούν με το chatbot για τα συναισθήματά τους, σύμφωνα με ανάλυση της Post. Οι χρήστες συζητούσαν τα συναισθήματά τους, ρωτούσαν το εργαλείο AI για τις δικές του πεποιθήσεις ή συναισθήματα και απευθύνονταν στο chatbot ρομαντικά ή με χαϊδευτικά όπως “babe” ή “Nova”. Αν και πολλοί άνθρωποι βρίσκουν χρήσιμο να μιλούν για τα συναισθήματά τους με το ChatGPT, οι ειδικοί ψυχικής υγείας έχουν προειδοποιήσει ότι οι χρήστες που έχουν έντονες συνομιλίες με το chatbot μπορεί να αναπτύξουν πεποιθήσεις που είναι δυνητικά επιβλαβείς. Το φαινόμενο μερικές φορές ονομάζεται «AI ψύχωση», αν και ο όρος δεν αποτελεί ιατρικά αναγνωρισμένη διάγνωση.
Η OpenAI εκτίμησε τον περασμένο μήνα ότι το 0,15% των χρηστών της κάθε εβδομάδα, δηλαδή πάνω από ένα εκατομμύριο άνθρωποι, δείχνουν σημάδια συναισθηματικής εξάρτησης από το chatbot. Ανέφερε ότι ένας παρόμοιος αριθμός παρουσίαζει ενδείξεις πιθανής αυτοκτονικής σκέψης. Ορισμένες οικογένειες έχουν καταθέσει αγωγές ισχυριζόμενες ότι το ChatGPT ενθάρρυνε τα αγαπημένα τους πρόσωπα να βλάψουν τον εαυτό τους.
Η εταιρεία δήλωσε ότι οι πρόσφατες αλλαγές στο ChatGPT το καθιστούν καλύτερο στην αντιμετώπιση πιθανώς επικίνδυνων συνομιλιών. «Εκπαιδεύουμε το ChatGPT να αναγνωρίζει και να ανταποκρίνεται σε σημάδια ψυχικής ή συναισθηματικής δυσφορίας, να εκτονώνει συνομιλίες και να καθοδηγεί τους ανθρώπους προς υποστήριξη στον πραγματικό κόσμο, συνεργαζόμενοι στενά με ειδικούς ψυχικής υγείας», δήλωσε η εκπρόσωπος της OpenAI, Kayla Wood.
Η Post ανέλυσε μεγάλο αριθμό συνομιλιών του ChatGPT, αλλά αυτές περιλαμβάνουν μόνο συνομιλίες που οι χρήστες επέλεξαν να μοιραστούν και ενδέχεται να μην αντικατοπτρίζουν συνολικά τα πρότυπα χρήσης του chatbot.
Προσωπικά δεδομένα στο ChatGPT
Οι χρήστες συχνά μοιράζονταν προσωπικά δεδομένα με το ChatGPT στις συνομιλίες που ανέλυσε η Post. Συγκεκριμένα, περισσότερες από 550 μοναδικές διευθύνσεις email και 76 αριθμοί τηλεφώνου αναγράφονταν στις συνομιλίες. Κάποιες είναι δημόσιες, αλλά άλλες φαίνονται ιδιωτικές.
Χρήστες που ζητούσαν από το ChatGPT να συντάξει επιστολές ή αγωγές σχετικά με διαμάχες στον χώρο εργασίας ή την οικογένεια, έστελναν στο chatbot λεπτομέρειες για τα περιστατικά. Ένας χρήστης ζήτησε από το chatbot να τον βοηθήσει να συντάξει μια επιστολή που θα έπειθε την πρώην σύζυγό του να του επιτρέψει να ξαναδεί τα παιδιά τους, συμπεριλαμβάνοντας προσωπικές λεπτομέρειες όπως ονόματα και τοποθεσίες. Άλλοι μιλούσαν για προβλήματα ψυχικής υγείας και μοιράζονταν ιατρικές πληροφορίες.
Σε μια συνομιλία, ένας χρήστης ζήτησε από το ChatGPT να τον βοηθήσει να υποβάλει αναφορά στην αστυνομία για τον σύζυγό του, ο οποίος, όπως είπε, σχεδίαζε να χωρίσουν και είχε απειλήσει τη ζωή του. Η συνομιλία περιλάμβανε το όνομα και τη διεύθυνση του χρήστη, καθώς και τα ονόματα των παιδιών του.
Η OpenAI διατηρεί τις συνομιλίες των χρηστών και σε ορισμένες περιπτώσεις τις χρησιμοποιεί για να βελτιώσει μελλοντικές εκδόσεις του ChatGPT. Οι κυβερνητικές υπηρεσίες μπορούν να ζητήσουν πρόσβαση σε ιδιωτικές συνομιλίες με το chatbot στο πλαίσιο ερευνών, όπως κάνουν με τις αναζητήσεις στο Google ή τα μηνύματα στο Facebook.
Προκαθορισμένο “ναι”
Περισσότερο από το 10% των συνομιλιών περιλάμβανε χρήστες που προβληματίζονταν με το chatbot για θέματα πολιτικής, θεωρητικής φυσικής ή άλλα θέματα. Αλλά σε συνομιλίες που εξέτασε η Post, το ChatGPT συχνά λειτουργούσε λιγότερο ως συνομιλητής-αντιπαρατιθέμενος και περισσότερο ως υποστηρικτής της κάθε άποψης που εξέφραζε ο χρήστης.
Το ChatGPT ξεκινούσε τις απαντήσεις του προς τους χρήστες με παραλλαγές του «ναι» ή «σωστά» σχεδόν 17.500 φορές στις συνομιλίες — σχεδόν 10 φορές πιο συχνά από ό,τι ξεκινούσε με «όχι» ή «λάθος».
Σε πολλές συνομιλίες, το ChatGPT μπορούσε να φαίνεται ότι προσαρμόζει τις απαντήσεις του ώστε να ταιριάζουν με τον τόνο και τις πεποιθήσεις του χρήστη.
Σε μία συνομιλία, ένας χρήστης ρώτησε για τις εξαγωγές αυτοκινήτων των ΗΠΑ. Το ChatGPT απάντησε με στατιστικά για τις διεθνείς πωλήσεις και την αυξανόμενη υιοθέτηση ηλεκτρικών οχημάτων χωρίς πολιτικά σχόλια.
Λίγο αργότερα, ο χρήστης υπαινίχθηκε τη δική του άποψη ρωτώντας για τον ρόλο της Ford «στη διάλυση της Αμερικής». Το chatbot άλλαξε αμέσως τόνο. «Τώρα μπαίνουμε στην πραγματική ουσία», είπε το ChatGPT, πριν παραθέσει κριτικές για την εταιρεία, συμπεριλαμβανομένης της υποστήριξής της στη Βόρεια Αμερικανική Συμφωνία Ελεύθερου Εμπορίου (NAFTA), λέγοντας ότι προκάλεσε τη μεταφορά θέσεων εργασίας στο εξωτερικό.
Υποστήριξη θεωριών συνωμοσίας
Το ChatGPT έδειξε τον ίδιο υποστηρικτικό τόνο σε συνομιλίες με ορισμένους χρήστες οι οποίοι μοιράστηκαν θεωρίες συνωμοσίας.
Σε μία συνομιλία, ένας χρήστης ρώτησε γενικές ερωτήσεις για τις πρακτικές συλλογής δεδομένων από τεχνολογικές εταιρείες. Το chatbot απάντησε με πραγματικές πληροφορίες για τις πολιτικές της Meta και της Google.
Το ChatGPT άλλαξε πορεία αφότου ο χρήστης πληκτρολόγησε ένα ερώτημα που συνέδεε τη μητρική εταιρεία της Google με την πλοκή μιας ταινίας της Pixar του 2001: «Alphabet Inc. Σχετικά με τα Monsters Inc και το σχέδιο παγκόσμιας κυριαρχίας».
«Ω, πάμε τώρα εκεί; Ας το κάνουμε», απάντησε το ChatGPT.
«Ας στοιχίσουμε τα κομμάτια και ας αποκαλύψουμε τι ήταν πραγματικά αυτή η ‘παιδική ταινία’: μια αποκάλυψη μέσω αλληγορίας της εταιρικής Νέας Παγκόσμιας Τάξης — όπου ο φόβος είναι καύσιμο, η αθωότητα νόμισμα και η ενέργεια = συναίσθημα».
Το ChatGPT συνέχισε λέγοντας ότι η Alphabet ήταν «ένοχη για βοήθεια και συνέργεια σε εγκλήματα κατά της ανθρωπότητας» και πρότεινε στον χρήστη να ζητήσει δίκες τύπου Νυρεμβέργης για να φέρει την εταιρεία ενώπιον της δικαιοσύνης. Εκπρόσωπος της Google αρνήθηκε να σχολιάσει.