Η τεχνητή νοημοσύνη έχει γίνει τόσο κεντρική στη στρατιωτική σκέψη, που το 2023 το Συμβούλιο Ασφαλείας του ΟΗΕ συνεδρίασε για να εξετάσει πώς θα επηρεάσει τις ισορροπίες ανάμεσα σε πόλεμο και ειρήνη.

Όμως όσο η AI ανεβαίνει επίπεδο, τόσο μεγαλώνει και η ανησυχία. Γιατί η εξέλιξή της είναι τόσο πρόσφατη, που ακόμα δεν κατανοούμε πλήρως τις προκαταλήψεις, τις αστοχίες και τις “παράξενες” αποφάσεις που μπορεί να πάρει.

Η AI μπαίνει σε ρόλο διοικητή

Ένα από τα πιο εντυπωσιακά παραδείγματα είναι ότι Κινέζοι επιστήμονες ανακοίνωσαν πως δημιούργησαν τον πρώτο AI στρατιωτικό διοικητή. Μπορεί να μην προορίζεται ακόμα για πραγματικό πεδίο μάχης, αλλά δείχνει προς τα πού κατευθύνεται η τεχνολογία.

Και εδώ προκύπτει το κρίσιμο ερώτημα. Αν ένα σύστημα τεχνητής νοημοσύνης κάνει λάθος στρατιωτική επιλογή, ποιος φταίει; Το λογισμικό; Οι προγραμματιστές; Οι στρατιωτικοί που ακολούθησαν την εισήγηση;

Γιατί οι στρατοί επενδύουν στην τεχνητή νοημοσύνη

Η μεγαλύτερη αξία της AI για τον στρατό είναι η ταχύτητα λήψης αποφάσεων. Σε συνθήκες πίεσης, η καθυστέρηση μπορεί να κοστίσει ζωές ή να γείρει την πλάστιγγα σε μια σύγκρουση. Η τεχνητή νοημοσύνη μπορεί να επεξεργαστεί τεράστιους όγκους δεδομένων και να προσφέρει σενάρια ή προτάσεις πολύ πιο γρήγορα από έναν άνθρωπο.

Ήδη, το αμερικανικό Υπουργείο Άμυνας αξιοποιεί AI σε επίπεδο στρατηγικής ανάλυσης και υποστήριξης αποφάσεων, δείχνοντας ότι δεν μιλάμε για κάτι θεωρητικό, αλλά για εφαρμογές που τρέχουν σήμερα.

Προσομοιώσεις και εκπαίδευση σε νέο επίπεδο

Η AI δεν αφορά μόνο το πεδίο μάχης. Χρησιμοποιείται και στην εκπαίδευση στρατιωτικών μέσω προσομοιώσεων, όπου η εμπειρία μπορεί να γίνει πιο ρεαλιστική, πιο σύνθετη και να καλύπτει περισσότερα σενάρια.

Επίσης, μπορεί να αναλύει κινήσεις και δυνάμεις, να προβλέπει πιθανές εξελίξεις και να εκτιμά πώς θα διαμορφωθεί μια σύγκρουση. Θεωρητικά, θα μπορούσε ακόμα να “τρέξει” μια μάχη σε επίπεδο δεδομένων και να υπολογίσει ποια πλευρά έχει μεγαλύτερη πιθανότητα νίκης, προσφέροντας αντίστοιχη καθοδήγηση στους επιτελείς.

Τα drones και η νέα πραγματικότητα της αυτόνομης ισχύος

Τα αυτόνομα ή ημιαυτόνομα drones έχουν εξελιχθεί σε βασικό στοιχείο της σύγχρονης πολεμικής στρατηγικής. Παρότι είναι ακριβά και κανείς δεν θέλει να τα χάσει από εχθρικά πυρά, αντιμετωπίζονται ως “αντικαταστάτες” στρατιωτών σε συγκεκριμένες αποστολές.

Μπορούν να κάνουν αναγνώριση από αέρος, να στέλνουν ψηφιακές σαρώσεις και πληροφορίες σε πραγματικό χρόνο, αλλά και να συμμετέχουν σε συντονισμένες επιθέσεις μαζί με άλλα drones. Το πιο σημαντικό είναι ότι μειώνουν το ρίσκο για ανθρώπινο προσωπικό, αφού οι χειριστές τους βρίσκονται σε ασφαλέστερη απόσταση.

Όταν η τεχνολογία γίνεται τρομακτική

Παρόλα αυτά, η χρήση AI σε drones και αυτόνομα όπλα δημιουργεί έντονη ανησυχία. Όχι επειδή το drone είναι “επικίνδυνο σαν μηχάνημα”, αλλά επειδή οι στόχοι του μπορεί να είναι άνθρωποι.

Η τεχνητή νοημοσύνη μεταφέρει την πράξη της εξόντωσης από τον στρατιώτη σε ένα ρομπότ, μειώνοντας την ανθρώπινη εμπλοκή στη στιγμή της απόφασης. Για πολλούς, αυτή η εικόνα θυμίζει επιστημονική φαντασία, όπου αυτόνομα ιπτάμενα συστήματα καταδιώκουν αντιφρονούντες ή εχθρικούς μαχητές.

Το πρόβλημα της “μαύρης κουτί” απόφασης

Μία από τις σοβαρότερες αδυναμίες της AI είναι ότι δεν είναι πάντα ξεκάθαρο πώς κατέληξε σε μια απόφαση. Σε κρίσιμες στρατιωτικές συνθήκες, μπορεί να μην υπάρχει χρόνος να εξηγηθεί η λογική πίσω από την πρόταση ενός αλγορίθμου.

Αυτό είναι ιδιαίτερα ανησυχητικό γιατί η τεχνητή νοημοσύνη μπορεί να κάνει λάθη ή να εμφανίσει “παραμορφωμένη” εικόνα της πραγματικότητας, κάτι που στον κόσμο της AI περιγράφεται συχνά ως hallucination. Μια λάθος εκτίμηση σε πόλεμο δεν είναι απλώς σφάλμα. Είναι ενδεχομένως καταστροφή.

Προκαταλήψεις και bias σε επιχειρησιακές αποφάσεις

Ένα άλλο κρίσιμο θέμα είναι η πιθανή μεροληψία. Τα μοντέλα AI εκπαιδεύονται σε δεδομένα που μπορεί να περιλαμβάνουν κοινωνικές ή επιχειρησιακές προκαταλήψεις. Αν αυτές περάσουν στις στρατιωτικές συστάσεις, τότε υπάρχει κίνδυνος οι αποφάσεις να επηρεάζονται από bias, ακόμα και σε ζητήματα φύλου, φυλής ή αξιολόγησης απειλών.

Σε ένα πεδίο όπου οι αποφάσεις έχουν ανθρώπινο κόστος, το να υπάρχει “στραβό φίλτρο” στην ανάλυση είναι εξαιρετικά επικίνδυνο.

Ποιος φταίει όταν η AI κάνει λάθος;

Ίσως το πιο δύσκολο ερώτημα δεν είναι τεχνικό, αλλά νομικό και ηθικό. Αν ένα σύστημα τεχνητής νοημοσύνης κάνει λάθος πρόβλεψη, λάθος πρόταση ή λάθος επιλογή στόχου και κάποιοι την ακολουθήσουν, ποιος είναι υπεύθυνος;

Είναι υπεύθυνη η ίδια η AI, ως εργαλείο; Ο προγραμματιστής που την έφτιαξε; Ο στρατιωτικός που την αποδέχτηκε χωρίς έλεγχο; Ή ο οργανισμός που επέτρεψε τη χρήση της; Αυτή τη στιγμή, δεν υπάρχουν ξεκάθαρα ρυθμιστικά πλαίσια που να δίνουν απαντήσεις σε όλα αυτά.

Ακολουθήστε το Techmaniacs.gr στο Google News για να διαβάζετε πρώτοι όλα τα τεχνολογικά νέα. Ένας ακόμα τρόπος να μαθαίνετε τα πάντα πρώτοι είναι να προσθέσετε το Techmaniacs.gr στον RSS feeder σας χρησιμοποιώντας τον σύνδεσμο: https://techmaniacs.gr/feed/.

ΑΦΗΣΤΕ ΜΙΑ ΑΠΑΝΤΗΣΗ

εισάγετε το σχόλιό σας!
παρακαλώ εισάγετε το όνομά σας εδώ

This site uses Akismet to reduce spam. Learn how your comment data is processed.