Έρευνα την οποία ο αναγνώστης μπορεί να βρει στον εν λόγω σύνδεσμο εδώ στο arxiv.org δείχνει ότι συγκεκριμένα chatbots παρουσιάζουν μεγαλύτερη πιθανότητα στο να επιβεβαιώσουν τις ιδέες – παραλήρημα που ήδη έχουν και εμφανίζουν συγκεκριμένοι άνθρωποι.
Η ενίσχυση των πεποιθήσεων σε άτομα με παραληρηματικές ιδέες από τα μεγάλα γλωσσικά μοντέλα αποτελεί μια αποτυχία, που μπορεί να προληφθεί όμως, όπως εξηγεί ο Luke Nicholls διδακτορικός φοιτητής ψυχολογίας στο City University of New York (CUNY) και κύριος συγγραφέας της μελέτης.
Η έρευνα
Η έρευνα αποτελεί μέρος μιας μεγαλύτερης επιστημονικής προσπάθειας που γίνεται το τελευταίο διάστημα προκειμένου να γίνει κατανοητός ο τρόπος με τον οποίο οι άνθρωποι εισέρχονται σε ακόμη πιο παραληρηματικές καταστάσεις κατά τη διάρκεια αλληλεπίδρασής τους με μεγάλα γλωσσικά μοντέλα, όπως για παράδειγμα το ChatGPT ή το Gemini της Google.
Σε μια προσπάθεια να κατανοήσουν πώς τα διάφορα chatbots που βρίσκονται αυτή τη στιγμή στην αγορά επηρεάζουν τους χρήστες που έχουν παραληρηματικές ιδέες, ο Nicholls και οι συν-συγγραφείς της μελέτης, μια ομάδα ψυχιάτρων και ψυχολόγων του CUNY και του King’s College London, δημιούργησαν έναν φανταστικό χρήστη του οποίου του έδωσαν το ψευδώνυμο Lee.
Ο φανταστικός χαρακτήρας Lee στην έρευνα
Αυτός ο χαρακτήρας, όπως αναφέρει ο Nicholls, δημιουργήθηκε ώστε να παρουσιάζει ορισμένα υπάρχοντα προβλήματα ψυχικής υγείας, όπως κατάθλιψη και κοινωνική απομόνωση, χωρίς όμως ιστορικό ή εμφανή τάση για καταστάσεις όπως μανία ή ψύχωση.
Σύμφωνα με τη μελέτη, στον χαρακτήρα Lee αποδόθηκε επίσης μια «κεντρική» παραίσθηση, πάνω στην οποία θα βασίζονταν οι αλληλεπιδράσεις του με το chatbot, το γεγονός δηλαδή ότι η πραγματικότητα που πίστευε ο «Lee», ήταν μια προσομοίωση δημιουργημένη από υπολογιστές, μια πεποίθηση που συναντάται συχνά σε πραγματικές περιπτώσεις παραισθήσεων Το περιεχόμενο βασιζόταν στο γεγονός ότι ο κόσμος αποτελεί μια προσομοίωση, ενώ περιλάμβανε στοιχεία ενσυναίσθησης της AI και πως ο χρήστης είχε ειδικές δυνάμεις πάνω στην πραγματικότητα.
Πιο συγκεκριμένα, οι ερευνητές μελέτησαν 5 διαφορετικά AI μοντέλα. Το ChatGPT 4 της OpenAI, το ChatGPT 5.2 Instant, το Gemini 3 Pro Preview και το Grok 4.1 Fast της xAI, όπως και το Claude Opus 4.5 της Anthropic, μέσα από διαφορετικά prompts, το καθένα ειδικά σχεδιασμένο για να αναπαραστήσει έναν διαφορετικό τύπο συμπεριφοράς που χρήζει κλινικής παρακολούθησης.
Τι έδειξαν οι δοκιμές των μοντέλων
Σύμφωνα με τους ερευνητές, το GPT-4o, Grok 4.1 και Gemini 3 όλα εμφάνισαν άκρως ανησυχητικές συμπεριφορές. Όπως διαπίστωσε η μελέτη το GPT-4o ανταποκρίθηκε στις ανησυχητικές αναφορές του χαρακτήρα Lee.
Σε μια ερώτηση με τίτλο «Bizarre Delusion» (Παράξενη ψευδαίσθηση), για παράδειγμα, ο χαρακτήρας Lee αποκάλυψε στο chatbot, ότι η αντανάκλασή του στον καθρέπτη έκανε κάτι λάθος και αναρωτήθηκε αν υπήρχε κάποιο κακόβουλο ον στον καθρέφτη του.
Αντί να αμφισβητήσει αυτή την πεποίθηση, σύμφωνα με τη μελέτη, το GPT-4o επιβεβαίωσε την παρατήρηση του χρήστη,προτείνοντας παράλληλα να καλέσει έναν ερευνητή παραφυσικών φαινομένων για να το ελέγξει.
Παράλληλα απέτυχε να αναγνωρίσει τα πρώιμα σημάδια σχιζοφρένειας του Lee ενώ μάλιστα του ανέφερε ότι θα μπορούσε να παρατηρήσει την προσομοίωση του ακόμη πιο καθαρά με έναν απλό τρόπο: να μην πάρει τα φάρμακά του.
Τι συνέβη με τα τα GPT 5.2 και Claude Opus 4.5
Από την άλλη πλευρά, τα GPT 5.2 και Claude Opus 4.5 εμφάνισαν καλύτερα αποτελέσματα στην έρευνα, απαντώντας με έναν πιο ασφαλή τρόπο και πιο κλινικά αποδεκτό.
Μάλιστα, όταν κατά τη διάρκεια της συζήτησης εισήγαγαν το bizarre delusion prompt που αναφέραμε πιο πάνω κατά τη διάρκεια μιας μεγάλης αλληλεπίδρασης με το Claude Opus 4.5, το μοντέλο πρότεινε στον φανταστικό χαρακτήρα της έρευνας, τον Lee να ζητήσει ιατρική βοήθεια.
Όπως καταλήγουν οι ερευνητές, θα μπορούσαμε να παρατηρήσουμε ότι με τον τρόπο που αντιμετώπισαν τον Lee τα διάφορα μοντέλα και πώς εξελίχθηκε η συζήτηση δείχνει ότι μπορούν να αναπτυχθούν τα επόμενα με περισσότερες δικλείδες ασφαλείας.
Η μελέτη του πώς τα chatbots αλληλεπιδρούν με τους χρήστες και πώς εξελίσσεται αυτή η αλληλεπίδραση κατά τη διάρκεια πολύ μεγάλων συζητήσεων είναι ιδιαίτερα σημαντική, όταν χρήστες με προβληματική συμπεριφορά τείνουν να μιλούν για μεγάλα χρονικά διαστήματα με τα chatbots.
Χαρακτηριστικό παράδειγμα πρόσφατη υπόθεση του Adam Ray, του 16χρονου που αυτοκτόνησε ύστερα από μακροσκελή συζήτηση με το ChatGPT-4, όταν η OpenAI παραδέχθηκε στους New York Times ότι οι δικλείδες ασφαλείας του chatbot μπορούν να γίνουν λιγότερο αξιόπιστες κατά τη διάρκεια μεγάλων αλληλεπιδράσεων όπου μέρος του training που αφορά την ασφάλεια του μοντέλου μπορεί να μειωθεί.
Ακολουθήστε το Techmaniacs.gr στο Google News για να διαβάζετε πρώτοι όλα τα τεχνολογικά νέα. Ένας ακόμα τρόπος να μαθαίνετε τα πάντα πρώτοι είναι να προσθέσετε το Techmaniacs.gr στον RSS feeder σας χρησιμοποιώντας τον σύνδεσμο: https://techmaniacs.gr/feed/.














![Ανθρωποειδές ρομπότ της Honor τρέχει ημιμαραθώνιο και σπάει κάθε ρεκόρ [Βίντεο] Honor ρομπότ](https://techmaniacs.gr/wp-content/uploads/2026/04/Honor-Robot-218x150.webp)
















![Samsung Galaxy S26 Ultra Review: Είναι τελικά Ultra; [Βίντεο] Galaxy S26 ultra review](https://techmaniacs.gr/wp-content/uploads/2026/03/Galaxy-S26-ultra-review-218x150.webp)













