Μετά την υπογραφή της συμφωνίας OpenAI (ChatGPT) και Πενταγώνου, οι χρήστες του ChatGPT σπεύδουν να διαγράψουν τους λογαριασμούς τους,, επικαλούμενοι ηθικούς λόγους. Την ίδια στιγμή, το Claude της Anthropic, αποχώρησε από την συμφωνία με το Υπουργείου Πολέμου των ΗΠΑ, επικαλούμενο ανησυχίες για την ασφάλεια.

Σύμφωνα με έκθεση του Windows Central, ένας τεράστιος αριθμός χρηστών του ChatGPT ακύρωσε ήδη τις συνδρομές του και μεταβαίνει σε εναλλακτικά chatbots τεχνητής νοημοσύνης όπως το Claud και άλλα. Η αντίδραση του κοινού στην κίνηση της OpenAI,  φαίνεται και στα μέσα κοινωνικής δικτύωσης, όπως και το Reddit, που δείχνουν  μια αυξανόμενη τάση υποχώρησης από το ChatGPT.

Μάλιστα, αρκετοί χρήστες του Reddit δημοσίευσαν οδηγούς, για το πως μπορούν οι χρήστες να μεταφέρουν τα δεδομένα τους από το ChatGPT, σε άλλα μοντέλα. Ταυτόχρονα, πολλοί χρήστες κατηγορούν πως η OpenAI δεν έχει καμία ηθική και πως πουλάει την ψυχή της, επιτρέποντας σε στρατούς να την χρησιμοποιούν για να σκοτώνουν ανθρώπους.

Εν το μεταξύ, είδαμε την υποκρισία σε όλο της το μεγαλείο, όταν η OpenAI, μέσω του μεγαλοεπενδυτή της Aidan Gold, συνεχάρη την Anthropic, όταν αποχώρησε από τη συμφωνία με το Υπουργείου Πολέμου των ΗΠΑ. Οι ΗΠΑ τώρα, ανακοίνωσαν πως απομακρύνουν τον Claude από όλα τα τμήματα του δημοσίου, σαν αντίποινα για την αποχώρησή τους από την συμφωνία.

Εδώ έρχεται ένα μεγάλο θέμα με την ηθική που έχουν οι εταιρείες τεχνητής νοημοσύνης, που στην πλειοψηφία τους είναι μηδενική. Όλα τα μοντέλα του σήμερα, έχουν εκπαιδευτεί από τεράστιους όγκους κλεμμένων δεδομένων πνευματική ιδιοκτησίας, που προστατεύονται από πνευματικά δικαιώματα. Την ίδια στιγμή η τεχνητή νοημοσύνη φέρνει την απειλή μαζικών απολύσεων, ενώ η κατανάλωση σε πόρους, σπάει κάθε ρεκόρ.

Τώρα όμως, η Anthropic τραβάει μια γραμμή στην χρήση αυτή της τεχνολογίας, απαγορεύοντας την χρήση των μοντέλων της για στρατιωτική χρήση ή για μαζική επιτήρηση πολιτών. Ο λόγος που έσπασε η συμφωνία με το Υπουργείο Πολέμου, ήταν η άρνηση των ΗΠΑ στην θέσπιση δικλείδων ασφαλείας, που να αποτρέπουν τις παραπάνω χρήσεις.

Μεγάλο σκάνδαλο! Εργαζόμενοι της Meta εξέταζαν τα δεδομένα από τα AI γυαλιά της

Η OpenAI από την άλλη, αναφέρει πως η συμφωνία με τον αμερικανικό στρατό, «έχει περισσότερα προστατευτικά κιγκλιδώματα» από αυτήν που απέρριψε η Anthropic. Σε αυτά υπάρχουν μέτρα για τη μαζική επιτήρηση και για δημιουργία πλήρως αυτόνομων όπλων, με «κόκκινες γραμμές» που η OpenAI σχεδιάζει να επιβάλει στο μέλλον.

Βέβαια, με αυτούς τους ισχυρισμούς η OpenAI δεν έχει καταφέρει να πείσει του χρήστες και όχι άδικα. Πρόκειται για μια τεράστια συζήτηση που έχει ξεκινήσει στο διαδίκτυο, με αρκετές εταιρείες τεχνητής νοημοσύνης, όπως η Microsoft και η Google, να προσφέρουν τα μοντέλα τους για χρήση από στρατούς όπως αυτός των ΗΠΑ και του Ισραήλ. Άλλωστε, αυτός ήταν και ένας από τους λόγους που το μανιφέστο της Google δεν έχει πλέον την φράση «Να μην κάνεις κακό».

Εμείς θα προτείναμε να μην δείχνουν υποστήριξη σε εταιρείες που δημιουργούν και προσφέρουν την τεχνολογία τους για επιβλαβείς χρήσεις. Ήδη το ChatGPT είδε μέσα σε λίγη ώρα 700.000 συνδρομητές να διαγράφουν τους λογαριασμούς τους, ενώ η διαγραφές συνεχίζονται.

Ακολουθήστε το Techmaniacs.gr στο Google News για να διαβάζετε πρώτοι όλα τα τεχνολογικά νέα. Ένας ακόμα τρόπος να μαθαίνετε τα πάντα πρώτοι είναι να προσθέσετε το Techmaniacs.gr στον RSS feeder σας χρησιμοποιώντας τον σύνδεσμο: https://techmaniacs.gr/feed/.

ΑΦΗΣΤΕ ΜΙΑ ΑΠΑΝΤΗΣΗ

εισάγετε το σχόλιό σας!
παρακαλώ εισάγετε το όνομά σας εδώ

This site uses Akismet to reduce spam. Learn how your comment data is processed.