Μεγάλη κριτική από τους εργαζόμενους της Google, έχει δεχθεί το AI Chatbot, Google Bard. Σύμφωνα με μηνύματα υπαλλήλων, το θεωρούν παθολογικό ψεύτη και παρακαλούν την εταιρία να μην το κυκλοφορήσει ακόμα.

Η αναφορά έρχεται από το Bloomberg, μετά από κουβέντα με 18 νυν και πρώην υπαλλήλους της Google. Παραθέτοντας επίσης και screeshots από εσωτερικά μηνύματα, στα οποία εκφράζονται φοβίες πως το chatbot προβαίνει σε διασπορά ψευδών πληροφοριών, ενώ δίνει και επικίνδυνες συμβουλές, σε ερωτήσεις σχετικά με καταδύσεις ή σχετικά με πτήσεις αεροπλάνων και την προσγείωσή τους.

Μάλιστα ένας υπάλληλος έγραψε: “To Google Bard είναι άχρηστο, παρακαλώ μη το κυκλοφορήσετε.” Επίσης υπάρχει και μια αξιολόγηση της υπηρεσίας από την ίδια την Google, σχετικά με την ασφάλεια της χρήσης του,  που αναφέρει πως το σύστημα δεν είναι έτοιμο για γενική χρήση.

Σύμφωνα με το Bloomberg, η Google έκανε στην άκρη του ηθικούς φραγμούς της, προκειμένου να ανταγωνιστεί την Microsoft και το Open AI. Συγκεκριμένα κρίνει πως η Google βάζει σε δεύτερη μοίρα την ηθική, δίνοντας προτεραιότητα στο κέρδος.

Στα τέλη του 2020 και τις αρχές του 2021, η Google απέλυσε δύο ερευνητές, τους Timmit Gebry και Margaret Mitchell, μετά από μια έρευνα που έκαναν, αποκαλύπτοντας τα ελαττώματα στον προγραμματισμό του συστήματος AI της Google. Τα ίδια συστήματα εξακολουθούν να χρησιμοποιούνται σήμερα από το Bard. Ακόμα και σήμερα, που αυτά τα συστήματα απειλούν ακόμα και την μηχανή αναζήτησης της Google, η εταιρία συνεχίζει να βάζει το κέρδος πάνω από την ασφάλεια των χρηστών. Συγκεκριμένα το Bloomberg το θέτει πολύ σωστά: «Ο αξιόπιστος γίγαντας της διαδικτυακής αναζήτησης παρέχει πληροφορίες χαμηλής ποιότητας σε έναν αγώνα για να συμβαδίσει με τον ανταγωνισμό, ενώ δίνει λιγότερη προτεραιότητα στις δεοντολογικές του δεσμεύσεις».

Υπάρχουν βέβαια και εκείνοι που παίρνουν το μέρος της Google, λέγοντας πως η δοκιμή από το κοινό, είναι απαραίτητη για να αναπτυχθεί η ασφάλεια αυτών των συστημάτων, ενώ το ρίσκο για βλάβες στο κοινό, είναι γνωστό και παραμένει πολύ χαμηλό. Μάλιστα συνεχίζουν λέγοντας πως τέτοιες πληροφορίες που προκαλούν βλάβες, είναι διαθέσιμες από εκατομμύρια πηγές σε όλο το διαδίκτυο.

Βέβαια το να μοιράζει μια τυχαία σελίδα επιβλαβές περιεχόμενο, είναι πολύ διαφορετικό από το να το κάνει η ίδια η Google, μέσω τεχνητής νοημοσύνης. Βέβαια τα ίδια προβλήματα έχει και η Μicrosoft και το OpenAI, όμως εκείνα δεν έχουν το ίδιο μερίδιο αγοράς στις μηχανές αναζήτησης.

Ο Brian Gabriel, εκπρόσωπος της Google, δήλωσε το Bloomberg πως η ηθική της τεχνιτής νοημοσύνης, παραμένει ύψιστη προτεραιότητα για την εταιρία. «Συνεχίζουμε να επενδύουμε στις ομάδες που εργάζονται για την εφαρμογή των Αρχών της Τεχνητής Νοημοσύνης μας στην τεχνολογία μας».

Εμείς πάντως, εδώ και καιρό βλέπουμε την χρήση AI σε διάφορες πτυχές που αφορούν της υπηρεσίες τις Google. Σε υπηρεσίες τις Google που χρησιμοποιούμε εδώ και χρόνια, βλέπουμε όλο και περισσότερα προβλήματα να εμφανίζονται, δημιουργώντας προβλήματα σε διαδικασίες που κάποτε ήταν πολύ πιο απλές. Όταν επικοινωνήσαμε με την Google για να λύσουμε τα προβλήματα αυτά, η απάντηση ήταν πως όλα ήταν αυτοματοποιημένα από το σύστημα και δεν μπορούν να κάνουν κάτι άμεσα. Οπότε φανταζόμαστε πως το ίδιο συμβαίνει και στο Google Bard.

Από την άλλη έχοντας δοκιμάσει και το Open AI, αλλά και το Bing Chatbot, οι απαντήσεις που πήραμε σε πολλά ερωτήματα ήταν λανθασμένες. Για παράδειγμα όταν να συγκρίνει πωλήσεις δύο εταιριών και να μας πει ποια έκανε τις περισσότερες, μας έδωσε πως κέρδισε η εταιρία Α. Όταν ζητήσαμε ξεχωριστά να μας δώσει τις πωλήσεις της A και της Β, η B είχε ξεκάθαρα περισσότερες πωλήσεις.

Γενικότερα το AI έχει πολύ δρόμο μπροστά του και πέρα από απλά πράγματα και κυρίως πράγματα που δεν θα θέσουν σε κίνδυνο την ζωή μας ή την δουλειά μας, κρίνουμε πως είναι ασφαλές. Όμως στα σημαντικά ή στην εύρεση πληροφοριών που μας επηρεάζουν, καλύτερα να απευθυνθούμε σε κάποιον πιο ειδικό.

ΑΦΗΣΤΕ ΜΙΑ ΑΠΑΝΤΗΣΗ

Please enter your comment!
Please enter your name here

This site uses Akismet to reduce spam. Learn how your comment data is processed.