Ο CEO της OpenAI, Sam Altman, που δημιούργησε το ChatGPT, συμβουλεύει να μην εμπιστευόμαστε τυφλά το Chat GPT. Σε ένα πρόσφατο podcast, ο Altman προειδοποίησε τους χρήστες να μη βασίζονται υπερβολικά και πόσο μάλλον για σημαντικά πράγματα, στο εργαλείο τεχνητής νοημοσύνης της εταιρείας του, αλλά και των άλλων. Αυτό γιατί, παρά τις εντυπωσιακές δυνατότητές του, συνεχίζει να κάνει πολύ συχνά λάθη και πολλές φορές σοβαρά.
«Οι άνθρωποι έχουν πολύ υψηλό βαθμό εμπιστοσύνης στο ChatGPT, κάτι που είναι ενδιαφέρον επειδή, η Τεχνητή Νοημοσύνη έχει παραισθήσεις», δήλωσε ο Altman κατά τη διάρκεια μιας συνομιλίας με τον συντάκτη και τεχνολόγο Andrew Mayne. «Θα έπρεπε να είναι η τεχνολογία την οποία δεν εμπιστεύεστε τόσο πολύ».
Ο Altman μίλησε για τον θεμελιώδη περιορισμό των μεγάλων γλωσσικών μοντέλων (LLM) και την τάση του να «έχουν παραισθήσεις» ή να δημιουργούν ψευδείς πληροφορίες. Λέει πως οι χρήστες θα πρέπει να χρησιμοποιούν το ChatGPT και τα άλλα μεγάλα γλωσσικά μοντέλα με σκεπτικισμό, όπως θα έκαναν και με οποιαδήποτε νέα τεχνολογία.
Συγκρίνοντας το ChatGPT με παραδοσιακές πλατφόρμες όπως η αναζήτηση στο διαδίκτυο ή τα μέσα κοινωνικής δικτύωσης, επεσήμανε ότι αυτές οι πλατφόρμες συχνά τροποποιούν τις εμπειρίες των χρηστών για δημιουργία εσόδων. «Μπορείτε να καταλάβετε ότι δημιουργεί έσοδα από εσάς», είπε, προσθέτοντας ότι οι χρήστες θα πρέπει να αναρωτιούνται εάν το περιεχόμενο που εμφανίζεται είναι πραγματικά προς το συμφέρον τους ή είναι προσαρμοσμένο για να αυξήσει την αλληλεπίδραση με τις διαφημίσεις.
Ο ίδιος, προειδοποιεί πως η παραβίαση της ακεραιότητας των απαντήσεων του ChatGPT, για το εμπορικό κέρδος, θα ήταν μια στιγμή που θα κατέστρεφε την εμπιστοσύνη του κοινού.
«Αν αρχίζαμε να τροποποιούμε την έξοδο, όπως τη ροή που επιστρέφει από το LLM, σε αντάλλαγμα για το ποιος μας πληρώνει περισσότερο, αυτό θα ήταν πολύ άσχημο. Και θα το μισούσα αυτό ως χρήστης», είπε ο Altman.
Το YouTube μαντεύει από σημερα την ηλικία χρηστών με AI
Ο Altman παραδέχθηκε πως οι τελευταίες ενημερώσεις έχουν κάνει το ChatGPT υπερβολικά κυνικό και ενοχλητικό, σύμφωνα με τα παράπονα των χρηστών. Το πρόβλημα ξεκίνησε μετά την ενημέρωση του μοντέλου GPT-4o για την ενίσχυση τόσο της νοημοσύνης όσο και της προσωπικότητας, με στόχο τη βελτίωση της συνολικής εμπειρίας χρήστη. Οι αλλαγές έκαναν το chatbot πολύ πιο ευχάριστο, με αποτέλεσμα κάποιοι να το περιγράψουν σαν ένα μοντέλο που λέει ναι σε όλα, παρά σαν έναν προσεκτικό βοηθό τεχνητής νοημοσύνης.
Εδώ θα πρέπει να δούμε και το θέμα παραισθήσεων του ChatGPT και των άλλων μοντέλων. Αυτή τη στιγμή χιλιάδες εργαζόμενοι έχουν απολυθεί από τεχνολογικές εταιρείες για να αντικατασταθούν από την τεχνητή νοημοσύνη, ενώ είναι και αυτή που προγραμματίζει τους αλγόριθμους αναζήτησης στο διαδίκτυο. Μια τεχνητή νοημοσύνη που έχει παραισθήσεις, αποφασίζει ποια μαγαζιά και ποιες σελίδες θα εμφανίζονται στην αναζήτηση, ελέγχοντας το πως θα πάει μια πραγματική επιχείρηση, το αν θα παραμείνει ανοιχτή ή αν θα κλείσει. Αυτό είναι τρομακτικό και πλέον είναι η πραγματικότητα που αντιμετωπίζουμε όλοι όσοι έχουμε σελίδες στο διαδίκτυο.
Ακολουθήστε το Techmaniacs.gr στο Google News για να διαβάζετε πρώτοι όλα τα τεχνολογικά νέα. Ένας ακόμα τρόπος να μαθαίνετε τα πάντα πρώτοι είναι να προσθέσετε το Techmaniacs.gr στον RSS feeder σας χρησιμοποιώντας τον σύνδεσμο: https://techmaniacs.gr/feed/.