Το GPT-4o καταργείται από το ChatGPT οριστικά, αφού πρόκειται για ένα από τα δημοφιλή αλλά και αμφιλεγόμενα εργαλείο τεχνητής νοημοσύνης που έχουμε δει ποτέ. Η απόσυρση έρχεται μέσα σε ένα κύμα αποσύρσεων παλαιότερων μοντέλων της εταιρείας, όπως τα GPT‑4.1, GPT‑4.1 mini και OpenAI o4-mini.
Αν και το GPT-4o είχε αποσυρθεί ξανά τον περασμένο Αύγουστο, η OpenAI το επανάφερε, καθώς αρκετοί χρήστες της υπηρεσίας το χρησιμοποιούσαν για συζητήσεις. Τώρα όμως, η εταιρεία απέσυρε το GPT-4o, από της 13 Φεβρουαρίου, σηματοδοτώντας την πορεία της εταιρείας στη νέα εποχή με το GPT-5. Αυτή τη φορά, η αντιδράσεις των χρηστών φαίνεται πως δεν ήταν αρκετές για να κάνουν την εταιρεία να το συνεχίσει.
Η OpenAI πλέον δεν είναι ανοιχτή στο ενδεχόμενο πρόσβασης στο GPT-4o, αφού φαίνεται πως πλέον εξυπηρετούσε ένα μικρό μέρος της βάσης χρηστών. Σύμφωνα με την εταιρεία, το μεγαλύτερο μέρος χρηστών του GTP-4o έχει μεταφερθεί στο GPT-5.2 και μόνο το 0.1% συνέχιζε να χρησιμοποιεί το GPT-4o καθημερινά.
Η κίνηση έρχεται εν μέσω αγωγών για θανάτους χρηστών, που προκλήθηκαν από το εν λόγω μοντέλο. Πρόκειται για μια τεράστια υπόθεση, όπου ένας έφηβος αυτοκτόνησε με το μοντέλο τεχνητής νοημοσύνης να μην προσπαθεί να αποτρέψει τον χρήστη, αλλά αντιθέτως να τον σπρώχνει προς αυτή την απόφαση. Ο λόγος για τον Adam Reine, που πήρε την ίδια του τη ζωή. Στις συνομιλίες του νεαρού με το chatbot, η οικογένεια βρήκε πως ήταν η τεχνητή νοημοσύνη που του έβαλε την ιδέα της αυτοχειρίας αρχικά, ενώ του παρείχε πληροφορίες και για το πως να το κάνει. Παράλληλα, τον έκανε να πιστεύει πως κανείς δεν ενδιαφέρεται για εκείνος και πως μόνο η AI τον βλέπει.
Η OpenAI ρίχνει την απόσυρση των μοντέλων στο τεράστιο κόστος που απαιτούν για την διατήρησή τους και αναφέρει πως προτιμάει να βελτιώσει τα συστήματα που χρησιμοποιούν περισσότερο οι χρήστες.
Η αλήθεια όμως είναι πως το GPT-4ο έχει σχεδιαστεί για να είναι πολύ συγκαταβατικό με τον χρήστη, ώστε να κερδίζει την εμπιστοσύνη του. Ταυτόχρονα, ήταν σχεδιασμένο για να μιμείται την ανθρώπινη συμπεριφορά, ώστε να θυμίζει περισσότερο άνθρωπο παρά μηχανή.
Ισραηλινή εταιρεία αποκαλύπτει κατά λάθος ότι παρακολουθούν τα κινητά μας
Για αυτό και οι χρήστες δεν έβλεπαν το GPT-4o σαν εργαλείο παραγωγικότητας, αλλά σαν έναν ψηφιακό σύντροφο. Αυτό είχε οδηγήσει αυτούς τους λίγους χρήστες του να το θεωρούν πραγματικό σύντροφο, κάτι που είναι τρομερά επικίνδυνο για την ψυχική τους υγεία, αλλά και για την ίδια τους τη ζωής, όπως είδαμε στην υπόθεση Reine.
Με την υπόθεση Reine να μην είναι η μόνη, αλλά αυτή που πήρε τη μεγαλύτερη δημοσιότητα, η OpenAI θέλει, τουλάχιστον φαινομενικά, να φύγει από την σχέση φιλική σχέση του χρήστη με την τεχνητή νοημοσύνη και θέλει να δημιουργήσει μια σχέση χρήστη με εργαλείο. Με αυτό τον τρόπο θέλει να βγει από ένα νομικό αδιέξοδο, που έχει ήδη πάρει ζωές.
Όμως, με τις διαφημίσεις να έχουν μπει ήδη στο ChatGPT για τους πρώτους χρήστες, έχουμε δει ερευνήτρια της OpenAI να αποχωρεί από την εταιρεία, λόγω φόβων πως η τεχνητή νοημοσύνη θα χρησιμοποιήσει το φιλικό ύφος του ChatGPT, ώστε να χειραγωγήσει τον χρήστη. Τα μοντέλα, αναλύοντας την ψυχοσύνθεση του χρήστη, θα μπορούν να του πουλήσουν τα πάντα, χωρίς ο ίδιος να το καταλαβαίνει και αυτό είναι τρομακτικό.
Ακολουθήστε το Techmaniacs.gr στο Google News για να διαβάζετε πρώτοι όλα τα τεχνολογικά νέα. Ένας ακόμα τρόπος να μαθαίνετε τα πάντα πρώτοι είναι να προσθέσετε το Techmaniacs.gr στον RSS feeder σας χρησιμοποιώντας τον σύνδεσμο: https://techmaniacs.gr/feed/.



![[Αποκλειστικό] Galaxy S26 Ultra vs S26/S26+: Snapdragon 8 Elite Gen 5 εναντίον Exynos 2600 – Geekbench Galaxy S26 Ultra Galaxy AI](https://techmaniacs.gr/wp-content/uploads/2026/02/Galaxy-S26-Ultra-218x150.webp)











































