Ορισμένες μεγάλες αμερικανικές εταιρείες χρησιμοποιούν συστήματα παρακολούθησης AI για να αναλύσουν τις επικοινωνίες των εργαζομένων σε δημοφιλείς επιχειρηματικές εφαρμογές όπως το Slack, το Teams, και το Zoom.

Ένα μοντέλο τεχνητής νοημοσύνης ισχυρίζεται ότι είναι σε θέση να αναλύει το περιεχόμενο και το συναίσθημα τόσο του κειμένου όσο και των εικόνων που δημοσιεύουν οι εργαζόμενοι.

Μερικά από αυτά τα εργαλεία χρησιμοποιούνται με σχετικά αβλαβείς τρόπους – όπως η αξιολόγηση των συνολικών αντιδράσεων των εργαζομένων σε πράγματα όπως οι νέες εταιρικές πολιτικές. “Δεν θα έχει ονόματα ανθρώπων, για να προστατεύσει το απόρρητο”, δήλωσε ο CEO της Aware, Jeff Schumann. Αντίθετα, είπε, οι πελάτες θα δουν ότι “ίσως το εργατικό δυναμικό άνω των 40 ετών σε αυτό το μέρος των Ηνωμένων Πολιτειών βλέπει τις αλλαγές στην πολιτική πολύ αρνητικά λόγω του κόστους, αλλά όλοι οι άλλοι εκτός αυτής της ηλικιακής ομάδας ή και τοποθεσίας το βλέπουν θετικά γιατί τους επηρεάζει με διαφορετικό τρόπο.”

Όμως, άλλα εργαλεία – συμπεριλαμβανομένου ενός που προσφέρεται από την ίδια εταιρεία – μπορούν να επισημάνουν τις αναρτήσεις συγκεκριμένων ατόμων. Τα δεκάδες μοντέλα AI της Aware, κατασκευασμένα για την ανάγνωση κειμένου και την επεξεργασία εικόνων, μπορούν επίσης να εντοπίσουν τον εκφοβισμό, την παρενόχληση, τις διακρίσεις, τη μη συμμόρφωση, την πορνογραφία, το γυμνό, και άλλες συμπεριφορές.

Οι Chevron, Delta, Starbucks, T-Mobile, και Walmart, είναι μερικές μόνο από τις εταιρείες που λέγεται ότι χρησιμοποιούν αυτά τα συστήματα. Η Aware λέει ότι έχει αναλύσει περισσότερες από 20 δισεκατομμύρια αλληλεπιδράσεις με περισσότερους από τρία εκατομμύρια υπαλλήλους.

Αν και αυτές οι υπηρεσίες βασίζονται σε εργαλεία παρακολούθησης που δεν έχουν ως βάση τεχνητή νοημοσύνη και χρησιμοποιούνται εδώ και χρόνια, ορισμένοι ανησυχούν. Η Jutta Williams, συνιδρυτής του μη κερδοσκοπικού οργανισμού Humane Intelligence, δήλωσε ότι η AI προσθέτει μια νέα και δυνητικά προβληματική πτυχή στα λεγόμενα προγράμματα ρίσκου εμπιστευτικών πληροφοριών, τα οποία υπάρχουν εδώ και χρόνια για να αξιολογούν πράγματα όπως η εταιρική κατασκοπεία, ειδικά στις επικοινωνίες μέσω email.

Η Amba Kak, εκτελεστική διευθύντρια του Ινστιτούτου AI Now στο Πανεπιστήμιο της Νέας Υόρκης, ανησυχεί για τη χρήση της τεχνητής νοημοσύνης για να βοηθήσει στον προσδιορισμό της συμπεριφοράς που θεωρείται επικίνδυνη. “Έχει ως αποτέλεσμα ένα ανατριχιαστικό αντίκτυπο σε αυτά που λένε οι άνθρωποι στο χώρο εργασίας”, είπε η Kak, προσθέτοντας ότι η Ομοσπονδιακή Επιτροπή Εμπορίου, το Υπουργείο Δικαιοσύνης και η Επιτροπή Ίσων Ευκαιριών Απασχόλησης έχουν εκφράσει ανησυχίες για το θέμα, αν και δεν μιλούσε συγκεκριμένα για τεχνολογία της Aware.

Μια επιπλέον ανησυχία είναι ότι ακόμη και τα συγκεντρωτικά δεδομένα μπορούν εύκολα να αποανωνυμοποιηθούν όταν αναφέρονται σε αναλυτικό επίπεδο, “όπως η ηλικία των εργαζομένων, η τοποθεσία, το τμήμα, η θητεία, ή η λειτουργία εργασίας”.

Ακολουθήστε το Techmaniacs.gr στο Google News για να διαβάζετε πρώτοι όλα τα τεχνολογικά νέα. Ένας ακόμα τρόπος να μαθαίνετε τα πάντα πρώτοι είναι να προσθέσετε το Techmaniacs.gr στον RSS feeder σας χρησιμοποιώντας τον σύνδεσμο: https://techmaniacs.gr/feed/.

ΑΦΗΣΤΕ ΜΙΑ ΑΠΑΝΤΗΣΗ

Please enter your comment!
Please enter your name here

This site uses Akismet to reduce spam. Learn how your comment data is processed.