Εδώ και πολλά χρόνια, η ψυχολογία προσπαθεί να απαντήσει στο ερώτημα αν ο ανθρώπινος νους μπορεί να εξηγηθεί από μια ενιαία θεωρία, ή αν πρέπει να μελετάται, μέσα από ξεχωριστές λειτουργίες, όπως η μνήμη και η προσοχή.
Το Centaur έμοιαζε να έφερνε την τεχνητή νοημοσύνη, ακριβώς στο κέντρο αυτής της συζήτησης, καθώς παρουσιάστηκε ως ένα σύστημα το οποίο θα μπορούσε να προβλέψει και να προσομοιώνει την ανθρώπινη συμπεριφορά, σε πολύ διαφορετικά γνωστικά περιβάλλοντα.
Όμως τα ευρήματα δείχνουν ότι πίσω από αυτήν την ανθρώπινη επίδοση, κρύβεται κάτι πολύ πιο απλό και λιγότερο εντυπωσιακό, η αποστήθιση.
Τι είναι το Centaur και πως εκπαιδεύτηκε;
Το Centaur αναφέρθηκε σε μελέτη του Nature τον Ιούλιο του 2025, ως ένα μοντέλο το οποίο θα μπορούσε να μιμηθεί την ανθρώπινη γνωστική συμπεριφορά.
Η ιδέα ήταν να πατήσει πάνω σε ένα κλασσικό γλωσσικό μοντέλο και στη συνέχεια να βελτιωθεί με δεδομένα από ψυχολογικά πειράματα, ώστε να μπορέσει στη συνέχεια να απαντήσει όπως θα απαντούσαν και οι άνθρωποι σε αντίστοιχες διεργασίες.
Σύμφωνα με την επιστημονική δημοσίευση, το μοντέλο στηρίχθηκε σε δεδομένα από 160 πειράματα, με πάνω από 60.000 συμμετέχοντες.
Θεωρήθηκε το επόμενο μεγάλο βήμα στο AI
Ήδη από τα πρώιμα αποτελεσμάτα, θεωρήθηκε ότι αποτελεί το επόεμενο μεγάλο βήμα ως προς ένα AI το οποίο θα μπορούσε να μιμηθεί τον τρόπο με τον οποίο σκέπτεται ο άνθρωπος. Πολλοό ήταν εκείνοι που είδαν το Centaur όχι απλά ως ένα σύστημα που δεν παράγει απλώς κείμενο, αλλά αντίθετα φθάνει σε μια πιο ουσιαστική προσομοίωση του τρόπου με τον οποίο λειτουργεί η ανθρώπινη σκέψη.
Η αντίθετη άποψη του Zhejiang University
Ερευνητές του Zhejiang University σε έρευνα που δημοσιεύεται στο National Science Open, (doi.org/10.1360/nso/20250053) υποστηρίζουν ότι η επιτυχία του πρέπει να προήλθε από το overfitting. Με άλλα λόγια αντί να καταλαβαίνει εργασίες, το μοντέλο έμαθε να αναγνωρίζει μοτίβα σε δεδομένα εκπαίδευσης και να αναπαραριστά τις απαντήσεις του.
Για να μπορέσουν να καταλήξουν σε ένα αξιόπιστο συμπέρασμα για το αν τελικά ισχύει κάτι τέτοιο, οι ερευνητές του δημιούργησαν πλήθος νέων σεναρίων αξιολόγησης και σε ένα από αυτά, αντικατέστησαν τα αρχικά prompts πολλαπλής επιλογής που περιέγραφαν συγκεκριμένες ψυχολογικές διεργασίες με την εντολή “Please choose option A.” (δηλαδή επέλεξε την απάντηση A).
Αν το μοντέλο πράγματι καταλάβαινε τη διεργασία θα έπρεπε να κάνει την επιλογή A, αντίθετα επέλεγε τις σωστές απαντήσεις του αρχικού dataset εκπαίδευσης.
Όλα αυτά δείχνουν με τον πιο χαρακτηριστικό τρόπο ότι το μοντέλο δεν καταλάβαινε τη σημασία των ερωτήσεων, αντίθετα βασιζόταν σε στατιστικά μοτίβα για να μαντέψει απαντήσεις. Το παράδειγμα δείχνει με τον πιο χαρακτηριστικό τρόπο, πόσο εύκολα μπορεί η βιομηχανία να μπερδέψει την υψηλή πρόβλεψη ενός μοντέλου με την πραγματική κατανόηση.
Ακολουθήστε το Techmaniacs.gr στο Google News για να διαβάζετε πρώτοι όλα τα τεχνολογικά νέα. Ένας ακόμα τρόπος να μαθαίνετε τα πάντα πρώτοι είναι να προσθέσετε το Techmaniacs.gr στον RSS feeder σας χρησιμοποιώντας τον σύνδεσμο: https://techmaniacs.gr/feed/.















![Ανθρωποειδές ρομπότ της Honor τρέχει ημιμαραθώνιο και σπάει κάθε ρεκόρ [Βίντεο] Honor ρομπότ](https://techmaniacs.gr/wp-content/uploads/2026/04/Honor-Robot-218x150.webp)














![Samsung Galaxy S26 Ultra Review: Είναι τελικά Ultra; [Βίντεο] Galaxy S26 ultra review](https://techmaniacs.gr/wp-content/uploads/2026/03/Galaxy-S26-ultra-review-218x150.webp)













