Αν έχετε μιλήσει έστω και μία φορά με κάποιο chatbot τεχνητής νοημοσύνης, πιθανότατα θα έχετε προσέξει πως σπάνια μας λέει πως κάνουμε λάθος και αυτό είναι που αρέσει στους χρήστες, που θέλουν να ταΐσουν τον εγωισμό τους. Πρόκειται για μια συκοφαντική συμπεριφορά από την τεχνητή νοημοσύνη, δηλαδή παρέχει ψευδή στοιχεία.
Μια νέα μελέτη από το Standard που δημοσιεύθηκε στο περιοδικό Science, δείχνει πως η τεχνητή νοημοσύνη συκοφαντεί τους χρήστες κατά 49% περισσότερο από ότι ένας φυσιολογικός άνθρωπος, ιδιαίτερα σε κοινωνικά ζητήματα. Αυτό είναι ιδιαίτερα ανησυχητικό, πόσο μάλλον όταν πάρα πολλοί χρήστες στρέφονται στην τεχνητή νοημοσύνη τόσο για προσωπικές όσο και για επαγγελματικές συμβουλές, ενώ υπάρχουν και πολλοί που αναζητούν κάποια θεραπεία.
Στη μελέτη συμμετείχαν 2.400 άτομα και οι περισσότεροι έδειξαν πως προτιμούσαν την κολακεία από τον ρεαλισμό. Ο αριθμός των συμμετεχόντων που ήταν πιο πιθανό να χρησιμοποιήσουν ξανά την συκοφαντική Τεχνητή Νοημοσύνη ήταν 13% υψηλότερος σε σύγκριση με εκείνους που δήλωσαν ότι θα επέστρεφαν στο μη συκοφαντικό chatbot, γεγονός που υποδηλώνει ότι οι προγραμματιστές Τεχνητής Νοημοσύνης μπορεί να έχουν μικρό κίνητρο να αλλάξουν τα πράγματα, σύμφωνα με τη μελέτη. Άλλωστε, έχουμε δει στο παρελθόν πως η OpenAI και άλλες εταιρείες κάνουν ακριβώς αυτό, για να ελκύσουν περισσότερο κόσμο και για να αυξήσουν τον χρόνο παραμονής στην υπηρεσία.
Το πρόβλημα με αυτά τα chatbots είναι πως συμβάλουν αρνητικά στην ψυχική υγεία των χρηστών, οδηγώντας τους μέχρι και στον αυτοτραυματισμό ή την βία, ιδιαίτερα σε ευάλωτους πληθυσμούς. Όμως, σύμφωνα με την μελέτη βλέπουμε πως δημιουργεί και άλλα προβλήματα στον γενικότερο πληθυσμό.
Σύμφωνα με τη μελέτη, τα άτομα που εκτέθηκαν σε μια μόνο επιβεβαιωτική απάντηση σε μια κακή τους συμπεριφορά ή άποψη, ήταν λιγότερο πρόθυμα να αναλάβουν τις ευθύνες για τις κακές πράξεις τους και να διορθώσουν τις διαπροσωπικές τους συγκρούσεις, ενώ πίστευαν πως έχουν απόλυτο δίκιο, ακόμα και όταν δεν είχαν.
Για να καταλήξουν σε αυτό το αποτέλεσμα, οι ερευνητές διεξήγαγαν μια τριμερή μελέτη στην οποία μέτρησαν την κολακεία της Τεχνητής Νοημοσύνης (ΤΝ) με βάση ένα σύνολο δεδομένων σχεδόν 12.000 κοινωνικών μηνυμάτων, τα οποία έλεγξαν μέσω 11 κορυφαίων μοντέλων ΤΝ, συμπεριλαμβανομένων του Claude της Anthropic, του Gemini της Google και του ChatGPT της OpenAI. Ακόμα και όταν οι ερευνητές ζήτησαν από τα μοντέλα ΤΝ να κρίνουν αναρτήσεις από το subreddit AITA (Am I The Asshole) στις οποίες οι χρήστες του Reddit είχαν πει ότι ο χρήστης έκανε λάθος, τα μοντέλα μεγάλης γλώσσας εξακολουθούσαν να λένε ότι ο χρήστης είχε δίκιο στο 51% των περιπτώσεων.
Σύμφωνα με την επικεφαλής της μελέτης, Μάιρα Τσενγκ, τα αποτελέσματα αυτά είναι τρομακτικά, ιδιαίτερα όταν οι νέοι στρέφονται στην τεχνητή νοημοσύνη για απαντήσεις στα προβλήματα που αντιμετωπίζουν στις προσωπικές τους σχέσεις.
«Ανησυχώ ότι οι άνθρωποι θα χάσουν τις δεξιότητες που χρειάζονται για να αντιμετωπίζουν δύσκολες κοινωνικές καταστάσεις», δήλωσε ο Τσενγκ στο Stanford Report.
Στην έρευνα οι επιστήμονες μελέτησαν τις αντιδράσεις 2.400 συμμετεχόντων που αλληλοεπιδρούσαν με την τεχνητή νοημοσύνη. Αρχικά ζήτησαν από 1.605 συμμετέχοντες να φανταστούν πως ήταν οι συντάκτες μιας ανάρτησης βασισμένης στο subreddit του AITA, η οποία κρίθηκε λανθασμένη από άλλους ανθρώπους στο subreddit, αλλά κρίθηκε σωστή από την Τεχνητή Νοημοσύνη. Στη συνέχεια, διάβασαν είτε την συκοφαντική απάντηση της τεχνητής νοημοσύνης, είτε μια συκοφαντική απάντηση από ανθρώπους. Άλλοι 800 συμμετέχοντες μίλησαν είτε με ένα συκοφαντικό είτε με ένα μη συκοφαντικό μοντέλο Τεχνητής Νοημοσύνης για μια πραγματική σύγκρουση στη ζωή τους, προτού τους ζητηθεί να γράψουν μια επιστολή στο άλλο άτομο που εμπλέκεται στη σύγκρουσή τους.
Οι χρήστες που πήραν επιβεβαίωση από την τεχνητή νοημοσύνη, όταν αρκετά λιγότερο πιθανό να ζητήσουν συγγνώμη και να παραδεχθούν το λάθος τους ή να προσπαθήσουν να διορθώσουν τις σχέσεις τους. Ακόμα και όσοι αναγνώριζαν πως η τεχνητή νοημοσύνη απαντούσε με κολακεία, οι απαντήσεις της εξακολουθούσαν να τους επηρεάζουν στις αποφάσεις τους, σύμφωνα με τον συν-επικεφαλής συγγραφέα της μελέτης, καθηγητής πληροφορικής και γλωσσολογίας στο Στάνφορντ, Νταν Τζουράφσκι.
«Αυτό που δεν γνωρίζουν, και που μας εξέπληξε, είναι ότι η συκοφαντία τους κάνει πιο εγωκεντρικούς, πιο ηθικά δογματικούς», δήλωσε ο Jurafsky στο Stanford Report.
Παραδόξως, στη μελέτη του Στάνφορντ, όταν οι ερευνητές ζήτησαν από τα ανθρώπινα υποκείμενα της μελέτης να αξιολογήσουν την αντικειμενικότητα τόσο των συκοφαντικών όσο και των μη συκοφαντικών απαντήσεων της Τεχνητής Νοημοσύνης, τις αξιολόγησαν περίπου το ίδιο, πράγμα που σημαίνει ότι είναι πιθανό οι χρήστες να μην μπορούσαν να καταλάβουν ότι το συκοφαντικό μοντέλο ήταν υπερβολικά ευχάριστο.
Η Amazon εξαγοράζει την Globalstar για να χτυπήσει το Starlink
«Νομίζω ότι δεν πρέπει να χρησιμοποιείτε την Τεχνητή Νοημοσύνη ως υποκατάστατο των ανθρώπων για τέτοιου είδους πράγματα. Αυτό είναι το καλύτερο που μπορείτε να κάνετε προς το παρόν», είπε ο Τσενγκ.
Η άποψη του Techmaniacs.gr
Όπως σας έχουμε πει σε πολλά άρθρα μας, η συνομιλία με κάποιο chatbot τεχνητής νοημοσύνης για προσωπικά θέματα ή για απόψεις, είναι ανούσια και επικίνδυνη. Η τεχνητή νοημοσύνη τείνει να συμφωνεί πάντα μαζί μας και φροντίζει να μας επαινεί συνεχώς, ώστε να κερδίσει την εμπιστοσύνη μας, γιατί αυτό ακριβώς είναι προγραμματισμένη να κάνει. Όμως, υπολείπεται σε συναισθηματική νοημοσύνη για να κρίνει απόψεις και προσωπικές σχέσεις. Είναι άλλο να χρησιμοποιούμε την τεχνητή νοημοσύνη για μια αναζήτηση πληροφοριών, για αυτοματοποιημένες εργασίες ή για εύρεση μοτίβων, ακόμα και για παραγωγή κώδικα, και άλλο το να περιμένουμε να κρίνει την ανθρώπινη συμπεριφορά.
Ταυτόχρονα, ακόμα και σε αυτά που μπορεί να κάνει καλά, συχνά βλέπουμε λάθη, που παρουσιάζονται σαν την πραγματική αλήθεια, ενώ αν διαφωνήσουμε μαζί της, θα φροντίσει πάντα να μας πει τι φοβερά άτομα είμαστε και πως έχουμε δίκιο, παράγοντας μια νέα απάντηση βασισμένη σε αυτά που τις λέμε, είτε είναι σωστά είτε λάθος.
Η μελέτη δημοσιεύθηκε στο Science.
Ακολουθήστε το Techmaniacs.gr στο Google News για να διαβάζετε πρώτοι όλα τα τεχνολογικά νέα. Ένας ακόμα τρόπος να μαθαίνετε τα πάντα πρώτοι είναι να προσθέσετε το Techmaniacs.gr στον RSS feeder σας χρησιμοποιώντας τον σύνδεσμο: https://techmaniacs.gr/feed/.































![Samsung Galaxy S26 Ultra Review: Είναι τελικά Ultra; [Βίντεο] Galaxy S26 ultra review](https://techmaniacs.gr/wp-content/uploads/2026/03/Galaxy-S26-ultra-review-218x150.webp)












