Για κάποιο λόγο οι άνθρωποι έχουν πολύ μεγαλύτερη εμπιστοσύνη στην τεχνητή νοημοσύνη από ότι θα έπρεπε. Συμβουλεύονται τα AI Chatbots για σχεδόν τα πάντα, από τη δουλειά τους, τα προβλήματά τους, για συνταγές μαγειρικής και δυστυχώς και για θέματα υγείας.

Αυτό είναι ένα πολύ μεγάλο λάθος και όπως προειδοποιεί ο επικεφαλής ιατρικός σύμβουλος του Ηνωμένου Βασιλείου, αυτό μπορεί να είναι πολύ επικίνδυνο όσον αφορά τις ιατρικές αποφάσεις των χρηστών. Σε μια πρόσφατη μελέτη, οι επιστήμονες εξέτασαν πόσο καλές διαγνώσεις και συμβουλές δίνουν τα AI chatbots, σε κοινά προβλήματα υγείας. Τα αποτελέσματα ήταν εντυπωσιακά και τρομακτικά συγχρόνως.

Οι επιστήμονες αναφέρουν πως μέχρι να δημοσιευθεί η μελέτη τα γλωσσικά μοντέλα τεχνητής νοημοσύνης είχαν ήδη ενημερωθεί σύμφωνα με τις τελευταίες μελέτες, όμως η ταξινόμηση των ασθενών εξακολουθούσε να έχει τα ίδια ακριβώς προβλήματα.

Οι ερευνητές έδωσαν στους συμμετέχοντες σύντομες περιγραφές συνηθισμένων ιατρικών καταστάσεων. Στη συνέχεια τους ζητήθηκε να χρησιμοποιήσουν ένα από τα τρία ευρέως διαδεδομένα AI chatbots για να βρουν απαντήσεις, παράλληλα με τις πηγές που θα χρησιμοποιούσαν από το σπίτι τους.

Οι χρήστες ζήτησαν από τα chatbots να τους απαντήσουν σε δύο ερωτήσεις, αφού τους έδωσαν τα συμπτώματα. Ποια πάθηση θα μπορούσε να εξηγήσει τα συμπτώματα και που θα έπρεπε να αναζητήσουν βοήθεια.

AI Chatbots

Τα άτομα που χρησιμοποίησαν τα AI chatbots ήταν λιγότερο πιθανό να εντοπίσουν την σωστή πάθηση, σε σχέση με εκείνα που βασίστηκαν σε άλλες πηγές, όπως βιβλιογραφία και το διαδίκτυο. Παράλληλα, όσοι απευθύνθηκαν στην τεχνητή νοημοσύνη, είχαν πολύ λιγότερες πιθανότητες να βρουν το σωστό μέρος φροντίδας, σε σχέση με την ομάδα ελέγχου, που έκανε παραδοσιακή αναζήτηση. Αυτό σημαίνει πως όσοι στράφηκαν στην τεχνητή νοημοσύνη, όχι μόνο δεν έλαβαν σωστές απαντήσεις, αλλά δεν κατάφεραν να βρουν και τα σημεία που έπρεπε για να λάβουν φροντίδα.

Αυτό δε σημαίνει πως τα AI Chatbots δεν έχουν ιατρικές γνώσεις, αφού πρακτικά θα μπορούσαν να περάσουν τις εξετάσεις ιατρικής για το πτυχίο. Όταν όμως αφαιρέθηκε το ανθρώπινο στοιχείο και τα chatbots έλαβαν απευθείας τα σενάρια, η απόδοσή τους βελτιώθηκε δραματικά.

Όταν ο χρήστης δεν ήταν μπλεγμένος με τη διαδικασία, τα chatbots εντόπισαν τις παθήσεις που έπρεπε και πολλές φορές πρότειναν τη σωστή φροντίδα για αυτές. Όταν όμως μπήκε ο παράγοντας “χρήστης” στη διαδικασία, άρχισαν τα προβλήματα.

Όταν οι επιστήμονες εξέτασαν τις συνομιλίες, τα προβλήματα άρχισαν να εμφανίζονται. Τα chatbots ανέφεραν συχνά τη σχετική διάγνωση κάπου στη συζήτηση, ωστόσο οι συμμετέχοντες δεν την πρόσεχαν ή δεν την θυμόντουσαν πάντα όταν συνόψιζαν την τελική τους απάντηση.

Σε κάποιες από τις περιπτώσεις οι χρήστες παρείχαν ελλείπεις πληροφορίες ή το chatbot έκανε λάθος ερμηνεία των βασικών λεπτομερειών. Η φυσική ομιλία μπορεί να κάνει δύσκολα τα πράγματα για ένα chatbot.

Η νέα μελέτη δείχνει πως στον αποστειρωμένο χώρο των δοκιμών για τα μοντέλα, τα πράγματα είναι πολύ διαφορετικά από την χρήση στον πραγματικό κόσμο. Αυτό είναι κάτι που οι εταιρείες θα έπρεπε να γνωρίζουν, πριν επιτρέψουν στα chatbots να δίνουν ιατρικές συμβουλές στον καθένα.

Οι ασθενείς τείνουν να περιγράφουν τα συμπτώματά τους με έναν ασαφή ή ελλιπή τρόπο, ενώ μπορεί να παρερμηνεύσουν τις απαντήσεις. Οι ερωτήσεις τους γίνονται με απρόβλεπτο τρόπο και αυτό είναι επικίνδυνο. Ακόμα και ένα σύστημα που αποδίδει υποδειγματικά όταν υπάρχουν σημεία αναφοράς σε ελεγχόμενο περιβάλλον, συμπεριφέρεται πολύ διαφορετικά όταν πραγματικοί άνθρωποι αλληλεπιδρούν με αυτό.

Η ιατρική δεν είναι απλά η περιγραφή συμπτωμάτων και η μελέτη  τους. Περιλαμβάνει και την ανθρώπινη επαφή, την εξέταση και την παρατήρηση, πράγματα που δε μπορούν να κάνουν τα AI chatbots προς το παρόν.

Οι ιατροί εκπαιδεύονται για να αναγνωρίζουν την πολυπλοκότητα των ασθενών, έναν τομέα που η τεχνητή νοημοσύνη απέχει πολύ από την τελειότητα. Οι γιατροί έχουν εκπαιδευτεί με το σύστημα Calgary-Cambridge, που χτίζει μια σχέση μεταξύ γιατρού και ασθενή, για τη συλλογή πληροφοριών μέσω πολύ συγκεκριμένων ερωτημάτων ανάλογα με την περίπτωση. Επίσης ο άνθρωπος γιατρός μπορεί να καταλάβει αν ο ασθενής έχει κατανοήσει πλήρως όσα λέει, κάτι που μια τεχνητή νοημοσύνη δε μπορεί να κάνει.

Όλες αυτές οι διαδικασίες βασίζονται στην ανθρώπινη επαφή, την εξατομικευμένη επικοινωνία, την διευκρίνιση, την ήπια διερευνητική προσέγγιση, την κρίση που διαμορφώνεται από το πλαίσιο και την εμπιστοσύνη. Αυτές οι ιδιότητες δεν μπορούν εύκολα να αναχθούν σε αναγνώριση προτύπων.

Δείτε εδώ ζωντανά την ιστορική εκτόξευση του Artemis II προς τη Σελήνη

Αυτά δε σημαίνουν πως η τεχνητή νοημοσύνη δε μπορεί να κάνει διαγνώσεις και μάλιστα μπορεί να φανεί χρήσιμη σε έναν γιατρό για την αναζήτηση πληροφοριών. Έχει όμως περιορισμούς, που έχουν να κάνουν με τους τρόπους που περιγράφουν μια κατάσταση χρήστες, που δεν έχουν ιατρικές γνώσεις.

Έτσι, τα AI Chatbots θα ήταν αρκετά χρήσιμα σαν γραμματεία για τους γιατρούς, παρά σαν τους ίδιους τους γιατρούς. Είναι πολύ χρήσιμα στην συλλογή πληροφοριών και την οργάνωσή τους, όμως όχι τόσο αποτελεσματικά στην ίδια τη διάγνωση.

Όπως έχουμε πει πάρα πολλές φορές, δε θα έπρεπε κανείς να έχει απόλυτη εμπιστοσύνη στην τεχνητή νοημοσύνη, ακόμα και για πολύ απλά πράγματα, πόσο μάλλον για θέματα υγείας. Ακόμα και σήμερα κάνει πάρα πολλά λάθη τόσο γύρω από τις πληροφορίες που δίνει, όσο και σε θέματα λογικής. Μπορεί να είναι ενδιαφέρον αν ανοίγουμε κουβέντα μαζί τους, όμως για κάτι πραγματικά σοβαρό, δε θα έπρεπε να τα εμπιστευόμαστε, τουλάχιστον όχι στην παρούσα κατάστασή τους. Όταν έχουμε να κάνουμε με ιατρικά θέματα, τότε μιλάμε μόνο με τους γιατρούς μας.

Η μελέτη δημοσιεύθηκε στο Nature Medicine.

Ακολουθήστε το Techmaniacs.gr στο Google News για να διαβάζετε πρώτοι όλα τα τεχνολογικά νέα. Ένας ακόμα τρόπος να μαθαίνετε τα πάντα πρώτοι είναι να προσθέσετε το Techmaniacs.gr στον RSS feeder σας χρησιμοποιώντας τον σύνδεσμο: https://techmaniacs.gr/feed/.

ΑΦΗΣΤΕ ΜΙΑ ΑΠΑΝΤΗΣΗ

εισάγετε το σχόλιό σας!
παρακαλώ εισάγετε το όνομά σας εδώ

This site uses Akismet to reduce spam. Learn how your comment data is processed.