Ορισμένοι γνωστοί ερευνητές AI, και ο Elon Musk, υπέγραψαν ανοιχτή επιστολή με την οποία καλούν τα εργαστήρια AI σε όλο τον κόσμο να σταματήσουν την ανάπτυξη συστημάτων AI μεγάλης κλίμακας, επικαλούμενοι φόβους σχετικά με τους “βαθύτατους κινδύνους για την κοινωνία και την ανθρωπότητα” που, όπως υποστηρίζουν, ενέχει αυτό το λογισμικό.

Η επιστολή, που δημοσιεύθηκε από το μη κερδοσκοπικό Ινστιτούτο Future of Life, σημειώνει ότι τα εργαστήρια τεχνητής νοημοσύνης βρίσκονται επί του παρόντος εγκλωβισμένα σε έναν “ανεξέλεγκτο αγώνα” για την ανάπτυξη και την εγκατάσταση συστημάτων μηχανικής μάθησης “που κανείς – ούτε καν οι δημιουργοί τους – δεν μπορεί να κατανοήσει, να προβλέψει ή να ελέγξει αξιόπιστα”.

“Ως εκ τούτου” καλούν “όλα τα εργαστήρια AI να διακόψουν αμέσως για τουλάχιστον 6 μήνες την εκπαίδευση συστημάτων AI ισχυρότερων από το GPT-4”, αναφέρει η επιστολή. “Αυτή η παύση θα πρέπει να είναι δημόσια και επαληθεύσιμη και να περιλαμβάνει όλους τους βασικούς παράγοντες. Εάν μια τέτοια παύση δεν μπορεί να τεθεί σε ισχύ γρήγορα, οι κυβερνήσεις θα πρέπει να παρέμβουν και να θεσπίσουν δικαιοστάσιο”.

Στους υπογράφοντες περιλαμβάνονται ο συγγραφέας Yuval Noah Harari, ο συνιδρυτής της Apple Steve Wozniak, ο συνιδρυτής του Skype Jaan Tallinn, ο πολιτικός Andrew Yang, και πολλοί γνωστοί ερευνητές και διευθύνοντες σύμβουλοι στον τομέα της τεχνητής νοημοσύνης, όπως οι Stuart Russell, Yoshua Bengio, Gary Marcus και Emad Mostaque. Τον πλήρη κατάλογο των υπογραφόντων μπορείτε να δείτε στην πηγή, αν και τα νέα ονόματα θα πρέπει να αντιμετωπίζονται με προσοχή, καθώς υπάρχουν αναφορές για ονόματα που προστίθενται στον κατάλογο για πλάκα – όπως για παράδειγμα ο διευθύνων σύμβουλος της OpenAI Sam Altman, ένα άτομο που είναι εν μέρει υπεύθυνο για την τρέχουσα δυναμική του αγώνα στην τεχνητή νοημοσύνη).

Η επιστολή είναι απίθανο να επηρεάσει το σημερινό κλίμα στην έρευνα της τεχνητής νοημοσύνης, το οποίο έχει δει εταιρείες τεχνολογίας όπως η Google και η Microsoft να σπεύδουν να αναπτύξουν νέα προϊόντα, παραμερίζοντας συχνά τις ανησυχίες που είχαν προηγουμένως διατυπωθεί σχετικά με την ασφάλεια και τη δεοντολογία. Αποτελεί όμως ένα σημάδι της αυξανόμενης αντίθεσης σε αυτή την προσέγγιση “στείλτε το τώρα και διορθώστε το αργότερα” – μια αντίθεση που θα μπορούσε ενδεχομένως να περάσει στον πολιτικό τομέα για να εξεταστεί από νομοθέτες.

Όπως σημειώνεται στην επιστολή, ακόμη και η ίδια η OpenAI έχει εκφράσει την πιθανή ανάγκη για “ανεξάρτητη αναθεώρηση” των μελλοντικών συστημάτων τεχνητής νοημοσύνης, ώστε να διασφαλιστεί ότι πληρούν τα πρότυπα ασφαλείας. Οι υπογράφοντες λένε ότι αυτή η ώρα έχει πλέον έρθει. “Τα εργαστήρια AI και οι ανεξάρτητοι εμπειρογνώμονες θα πρέπει να χρησιμοποιήσουν αυτή την παύση για να αναπτύξουν και να εφαρμόσουν από κοινού ένα σύνολο κοινών πρωτοκόλλων ασφαλείας για τον σχεδιασμό και την ανάπτυξη προηγμένης τεχνητής νοημοσύνης, τα οποία θα ελέγχονται αυστηρά και θα επιβλέπονται από ανεξάρτητους εξωτερικούς εμπειρογνώμονες”, γράφουν. “Αυτά τα πρωτόκολλα θα πρέπει να διασφαλίζουν ότι τα συστήματα που τα τηρούν είναι ασφαλή πέρα από κάθε λογική αμφιβολία”.

Ακολουθήστε το Techmaniacs.gr στο Google News για να διαβάζετε πρώτοι όλα τα τεχνολογικά νέα. Ένας ακόμα τρόπος να μαθαίνετε τα πάντα πρώτοι είναι να προσθέσετε το Techmaniacs.gr στον RSS feeder σας χρησιμοποιώντας τον σύνδεσμο: https://techmaniacs.gr/feed/.

ΑΦΗΣΤΕ ΜΙΑ ΑΠΑΝΤΗΣΗ

Please enter your comment!
Please enter your name here

This site uses Akismet to reduce spam. Learn how your comment data is processed.