Άνδρας συμβουλεύτηκε το ChatGPT για το πώς να αποφύγει το αλάτι και… ανέπτυξε σπάνια πάθηση

Διαβάζεται σε 3'
Λογότυπο ChatGPT
Λογότυπο ChatGPT AP Photo Kiichiro Sato

Ιατρικό περιοδικό προειδοποιεί για τις λανθασμένες ιατρικές συμβουλές του ChatGPT, μετά από την εμφάνιση σπάνιας πάθησης σε άνδρα που το συμβουλεύτηκε.

Ένα αμερικανικό ιατρικό περιοδικό έκρουσε τον κώδωνα του κινδύνου για τη χρήση του ChatGPT ως πηγή ιατρικών πληροφοριών, μετά από την περίπτωση ενός 60χρονου άνδρα που εμφάνισε μια σπάνια πάθηση, έπειτα από συνομιλία του με το chatbot για το πώς να αφαιρέσει το επιτραπέζιο αλάτι από τη διατροφή του.

Σύμφωνα με δημοσίευμα του Annals of Internal Medicine, ο άνδρας διαγνώστηκε με βρωμισμό (σοβαρή δηλητηρίαση από βρωμιούχο νάτριο), αφότου συμβουλεύτηκε το ChatGPT.

Ειδικότερα, το άρθρο περιγράφει την περίπτωση του εν λόγω ασθενούς, ο οποίος αφού διάβασε για τις αρνητικές επιπτώσεις του χλωριούχου νατρίου, απευθύνθηκε στο ChatGPT για τρόπους απομάκρυνσης του χλωριδίου από τη διατροφή του και ξεκίνησε να καταναλώνει βρωμιούχο νάτριο για τρεις μήνες, παρότι γνώριζε ότι η αντικατάσταση αυτή προοριζόταν κυρίως για άλλες χρήσεις, όπως ο καθαρισμός.

Το βρωμιούχο νάτριο χρησιμοποιήθηκε ως ηρεμιστικό στις αρχές του 20ού αιώνα.

Ο ασθενής παρουσιάστηκε στο νοσοκομείο ισχυριζόμενος ότι ο γείτονάς του τον δηλητηριάζει. Είπε, επίσης, ότι είχε πολλούς διατροφικές περιορισμούς, ενώ δίσταζε να πιει νερό, παρότι διψούσε. Μάλιστα, ο άνδρας προσπάθησε να δραπετεύσει από το νοσοκομείο εντός 24 ωρών από την εισαγωγή του και, μετά την απομόνωσή του, υποβλήθηκε σε θεραπεία για ψύχωση.

Όταν ο ασθενής σταθεροποιήθηκε, ανέφερε και άλλα συμπτώματα, όπως ακμή στο πρόσωπο, υπερβολική δίψα και αϋπνία, τα οποία είναι συμπτώματα βρωμισμού, ένα σύνδρομο που στις αρχές του 20ού αιώνα θεωρούνταν υπεύθυνο για σχεδόν το 10% των ψυχιατρικών εισαγωγών.

Τελικά, ο ασθενής είπε στους γιατρούς ότι ξεκίνησε να παίρνει βρωμιούχο νάτριο, όταν συμβουλεύτηκε το ChatGPT για το πώς να απομακρύνει το επιτραπέζιο αλάτι από τη διατροφή του.

Σύμφωνα με όσα αναφέρει η Guαrdian, οι γιατροί από το Πανεπιστήμιο της Ουάσινγκτον τόνισαν πως η υπόθεση αναδεικνύει τον κίνδυνο που ενέχει η τεχνητή νοημοσύνη για την πρόκληση βλαβών στην υγεία. Αν και δεν είχαν πρόσβαση στο ιστορικό συνομιλίας του ασθενούς, όταν οι ίδιοι ρώτησαν το ChatGPT για υποκατάστατο του χλωριδίου, η απάντηση περιλάμβανε το βρωμίδιο, χωρίς προειδοποίηση για την υγεία και χωρίς διερεύνηση του λόγου του αιτήματος — διαδικασία που ένας επαγγελματίας υγείας θα ακολουθούσε.

Το άρθρο προειδοποιεί ότι εφαρμογές όπως το ChatGPT μπορούν να περιέχουν επιστημονικές ανακρίβειες, να στερούνται κριτικής ανάλυσης και να συμβάλλουν στη διάδοση παραπληροφόρησης.

Παρά τη διαφημιζόμενη αναβάθμιση του ChatGPT στο GPT-5 και την υπόσχεση καλύτερων απαντήσεων και προειδοποιήσεων σε θέματα υγείας, η ίδια η εταιρεία υπογραμμίζει ότι δεν αντικαθιστά την επαγγελματική ιατρική συμβουλή και δεν προορίζεται για διάγνωση ή θεραπεία.

Οι συγγραφείς σημειώνουν ότι η τεχνητή νοημοσύνη μπορεί να λειτουργήσει ως γέφυρα ανάμεσα στην επιστήμη και το κοινό, αλλά ελλοχεύει ο κίνδυνος παροχής “εκτός πλαισίου” πληροφοριών. Είναι απίθανο, τονίζουν, ένας γιατρός να πρότεινε βρωμιούχο νάτριο ως εναλλακτική του επιτραπέζιου αλατιού. Γι’ αυτό, οι επαγγελματίες υγείας πρέπει να ελέγχουν την προέλευση των πληροφοριών που χρησιμοποιούν οι ασθενείς τους.

Ροή Ειδήσεων

Περισσότερα