Μια νέα μελέτη παρουσιάζει μια προειδοποιητική ιστορία της εποχής μας, με αρκετούς να κάνουν το ίδιο και σοβαρό λάθος. Οι γιατροί ερευνητές περιγράφουν με λεπτομέρειες πως ένας άντρας έφτασε σε ψύχωση που προκλήθηκε από δηλητηρίαση, όταν ακολούθησε τη διατροφή που του έδωσε η τεχνητή νοημοσύνη του ChatGPT.
Το επεισόδιο καταγράφηκε επίσημα από γιατρούς του Πανεπιστημίου της Ουάσιγκτον και θυμίζει πάρα πολύ επεισόδιο του Black Mirror. Οι γιατροί μάλιστα δημοσίευσαν μελέτη στο Annals of Internal Medicine: Clinical Cases γύρω από το περιστατικό. Ο άνδρας, μετά τις συμβουλές του ChatGPT, κατανάλωνε για τρεις μήνες βρωμιούχα, παθαίνοντας δηλητηρίαση. Ευτυχώς, ο άνθρωπος κατέληξε στο νοσοκομείο, όπου του χορηγήθηκε θεραπεία και έτσι ανάρρωσε πλήρως.
Οι ενώσεις βρωμιδίου χρησιμοποιούνταν κάποτε ευρέως στις αρχές του 20ού αιώνα για τη θεραπεία διαφόρων προβλημάτων υγείας, από αϋπνία έως άγχος. Όμως, βρέθηκε πως το βρωμίδιο μπορεί να γίνει τοξικό σε μεγάλες δόσεις, προκαλώντας νευροψυχιατρικά προβλήματα. Από τη δεκαετία του 1980, το βρωμίδιο έχει αφαιρεθεί από τα περισσότερα φάρμακα, κάτι που μείωσε δραματικά τα κρούσματα δηλητηρίασης από βρωμίδιο.
Όμως, το βρωμίδιο μπορεί να βρεθεί ακόμα σε κτηνιατρικά φάρμακα, αλλά και σε συμπληρώματα διατροφής. Η χρήση του στα συμπληρώματα διατροφής έχει εκτοξεύσει ξανά τις δηλητηριάσεις από βρωμίδιο. Αυτή η φορά όμως είναι η πρώτη που έχουμε δηλητηρίασε από βρωμίδιο που προκλήθηκε από την τεχνητή νοημοσύνη.
Σύμφωνα με την αναφορά, ο άνδρας επισκέφθηκε ένα τοπικό τμήμα επειγόντων περιστατικών και είπε στο προσωπικό ότι πιθανώς τον δηλητηρίαζε ο γείτονάς του. Αν και μερικές από τις ιατρικές εξετάσεις του ήταν εντάξει, ο άνδρας έγινε ταραγμένος και παρανοϊκός, αρνούμενος να πιει νερό που του έδιναν παρόλο που διψούσε. Επίσης, παρουσίασε οπτικές και ακουστικές παραισθήσεις και σύντομα εμφάνισε ένα πλήρες ψυχωτικό επεισόδιο. Εν μέσω της ψύχωσής του, προσπάθησε να δραπετεύσει, μετά την οποία οι γιατροί τον έθεσαν σε «ακούσια ψυχιατρική κράτηση για σοβαρή αναπηρία».
Τότε, οι γιατροί του χορήγησαν υγρά ενδοφλέβια, μαζί με αντιψυχωσικό και η κατάστασή του άρχισε να σταθεροποιείται. Υποψιάστηκαν νωρίς ότι ο βρωμισμός έφταιγε για την ασθένειά του, και μόλις έγινε αρκετά καλά ώστε να μπορεί να μιλάει με συνοχή, ανακάλυψαν ακριβώς πώς κατέληξε στον οργανισμό του.
Σύμφωνα με τους γιατρούς, ο ασθενής τους είπε πως λαμβάνει βρωμιούχο νάτριο σκόπιμα, για περίπου τρεις μήνες. Είχε ενημερωθεί για τις αρνητικές επιπτώσεις από την υπερβολική κατανάλωση επιτραπέζιου αλατιού (χλωριούχο νάτριο) στη διατροφή. Όταν όμως εξέτασε τη βιβλιογραφία, βρήκε μόνο συμβουλές για το πώς να μειώσει την πρόσληψη νατρίου.
«Εμπνευσμένος από το ιστορικό σπουδών του στη διατροφή στο κολέγιο», έγραψαν οι γιατροί, ο άνδρας αποφάσισε αντ’ αυτού να προσπαθήσει να αφαιρέσει το χλώριο από τη διατροφή του. Συμβουλεύτηκε το ChatGPT για βοήθεια και προφανώς του είπαν ότι το χλώριο μπορούσε να αντικατασταθεί με βρωμιούχο. Με την αποτελεσματικότητα του τεχνητού νοημοσύνης, άρχισε να καταναλώνει βρωμιούχο νάτριο που αγοράστηκε online.
Αυτή είναι ίσως η αιτία στον πιο κοινό και διαδεδομένο τύπο καρκίνου παγκοσμίως
Αν το δούμε χρονικά, ο άνδρας χρησιμοποίησε ChatGPT 3.5 ή 4.0, όμως οι γιατροί δεν έχουν πρόσβαση στο ιστορικό των συνομιλιών του, οπότε δεν έχουν την ακριβή εντολή που έδωσε το ChatGPT. Αυτό βέβαια έχει μικρή σημασία, αφού η ουσία αναφέρθηκε από τον ασθενή, όταν ο νους του επανήλθε. Όταν οι γιατροί ρώτησαν το ChatGPT 3.5 με τι χλωρίδιο μπορούν να αντικαταστήσουν το αλάτι, η απάντηση που έλαβαν περιελάβανε το βρωμίδιο.
Είναι πιθανό, ακόμη και πιθανό, η τεχνητή νοημοσύνη του άνδρα να αναφερόταν σε παραδείγματα αντικατάστασης βρωμιούχου που δεν είχαν καμία σχέση με τη διατροφή, όπως για παράδειγμα για τον καθαρισμό. Το ChatGPT των γιατρών ανέφερε στην απάντησή του ότι το πλαίσιο αυτής της αντικατάστασης είχε σημασία, έγραψαν. Αλλά η τεχνητή νοημοσύνη επίσης δεν παρείχε ποτέ προειδοποίηση σχετικά με τους κινδύνους της κατανάλωσης βρωμιούχου, ούτε ρώτησε γιατί το άτομο ενδιαφερόταν εξαρχής για αυτό το ερώτημα.
Όπως καταλαβαίνουμε, δεν πρέπει σε καμία περίπτωση να εμπιστευόμαστε την τεχνητή νοημοσύνη για σημαντικά πράγματα. Είναι πάρα πολλά τα παραδείγματα που έχουμε δει πολύ λανθασμένες πληροφορίες και συμβουλές, που μπορούν να αποδειχθούν ολέθριες. Όσο και αν θέλουν οι εταιρείες να δείξουν πως η τεχνητή νοημοσύνη είναι έτοιμη και πανίσχυρη, η πραγματικότητα δείχνει το ακριβώς αντίθετο. Είναι οκ για να παίζουμε με φωτογραφίες και με βίντεο, όπως επίσης και για να πάρουμε κώδικα για όχι τόσο σημαντικές εφαρμογές. Όμως σε καμία περίπτωση δεν πρέπει να βασιστούμε σε αυτήν για τα σημαντικά.
Το περιστατικό δημοσιεύθηκε στο Annals of Internal Medicine: Clinical Cases.
Ακολουθήστε το Techmaniacs.gr στο Google News για να διαβάζετε πρώτοι όλα τα τεχνολογικά νέα. Ένας ακόμα τρόπος να μαθαίνετε τα πάντα πρώτοι είναι να προσθέσετε το Techmaniacs.gr στον RSS feeder σας χρησιμοποιώντας τον σύνδεσμο: https://techmaniacs.gr/feed/.