Τι θα συμβεί αν με τη χρήση της σημερινής τεχνητής νοημοσύνης μπορούν να προβλεφθούν μελλοντικά γεγονότα, αρκετές ημέρες νωρίτερα; Οι Ηνωμένες Πολιτείες πειραματίζονται με αυτό το σενάριο.
Σενάριο που πρώτα έγινε ταινία και όπως φαίνεται ενέπνευσε τα γεράκια του Πενταγώνου. Ακούγεται σαν μία τελευταία μορφή αποτροπής ενός πολέμου. Μίας οραματικής ιδέας που θα οδηγεί τους στρατιωτικούς διοικητές των ΗΠΑ και ανώτερους πολιτικούς να γνωρίζουν εκ των προτέρων το πιθανότερο σενάριο που μπορεί να συμβεί. Αμφότεροι υιοθετούν τάχιστα την ιδέα της εισαγωγής της τεχνητής νοημοσύνης (AI) στις στρατιωτικές υπηρεσίες.
Τον Ιούλιο του 2021, η Βορειοαμερικανική Διοίκηση Αεροδιαστημικής Άμυνας (NORAD) και η Βόρεια Διοίκηση των ΗΠΑ (NORTHCOM) πραγματοποίησαν μια τρίτη σειρά δοκιμών που ονομάζεται Global Information Dominance Experiments (GIDE), σε συνεργασία με ηγέτες από 11 διοικητικές δυνάμεις. Η πρώτη και η δεύτερη σειρά δοκιμών πραγματοποιήθηκαν τον Δεκέμβριο του 2020 και τον Μάρτιο του 2021, αντίστοιχα.
Οι δοκιμές σχεδιάστηκαν να πραγματοποιούνται σε φάσεις, καθεμία από τις οποίες καταδεικνύει τις τρέχουσες δυνατότητες τριών αλληλένδετων εργαλείων με δυνατότητα τεχνητής νοημοσύνης, που ονομάζονται Cosmos, Lattice και Gaia.
Η Gaia παρέχει επίγνωση της κατάστασης σε πραγματικό χρόνο, για οποιαδήποτε γεωγραφική τοποθεσία, που αποτελείται από πολλές διαφορετικές ταξινομημένες και μη ταξινομημένες πηγές δεδομένων, όπως τεράστιοι όγκοι δορυφορικών εικόνων, δεδομένων επικοινωνιών, αναφορών πληροφοριών και μια ποικιλία δεδομένων αισθητήρων.
Το Lattice προσφέρει επιλογές παρακολούθησης και απόκρισης απειλών σε πραγματικό χρόνο. Το Cosmos επιτρέπει την στρατηγική και την βασισμένη στο cloud συνεργασία, με πολλές διαφορετικές εντολές.
Μαζί, αυτά τα εργαλεία απόφασης, υποτίθεται ότι προβλέπουν τι θα κάνουν οι αντίπαλοι εκ των προτέρων, επιτρέποντας στους στρατιωτικούς ηγέτες των ΗΠΑ να προλάβουν τις ενέργειες των αντιπάλων, πριν προκύψει οποιαδήποτε σύγκρουση.
Τέτοια εργαλεία, όπως η χρήση τεχνητής νοημοσύνης στο πεδίο της μάχης, είναι ιδιαίτερα ελκυστικά για την ηγετική στρατιωτική ομάδα των ΗΠΑ, καθώς θα τους προετοιμάζουν στο μέλλον, να λάβουν αποφάσεις μέσα σε συμπιεσμένους χρόνους.
Επικαλούνται επίσης πολλές δημοφιλείς ατάκες που ακούγονται βαρύγδουπες, όπως της κυριαρχίας των πληροφοριών, της υπεροχής αποφάσεων, της ολοκληρωμένης αποτροπής και της από κοινού εντολής και ελέγχου όλων των τομέων (JADC2).
Σε ομιλία του σε μονοήμερη διάσκεψη της Επιτροπής Εθνικής Ασφάλειας για την Τεχνητή Νοημοσύνη (NACAI), ο Αμερικανός υπουργός Άμυνας, Lloyd Austin υποστήριξε τη σημασία της Τεχνητής Νοημοσύνης για την δυνατότητα μίας ολοκληρωμένης αποτροπής, εκφράζοντας την πρόθεσή του να χρησιμοποιήσει “το σωστό μείγμα τεχνολογίας, επιχειρησιακών εννοιών και δυνατοτήτων, όλα πλεγμένα μαζί με έναν δικτυακό τρόπο που είναι τόσο αξιόπιστος, ευέλικτος και ισχυρός, που θα σταματήσει κάθε αντίπαλο“.
Αυτές οι πλατφόρμες με δυνατότητα τεχνητής νοημοσύνης αναμένεται να προχωρήσουν πέρα από την απλή ενίσχυση της επίγνωσης της κατάστασης και την καλύτερη έγκαιρη προειδοποίηση.
Θα προσφέρουν στους στρατιωτικούς ηγέτες των ΗΠΑ αυτό που θεωρείται το ιερό δισκοπότηρο του επιχειρησιακού σχεδιασμού, παράγοντας στρατηγική προειδοποίηση για εχθρικές ενέργειες στη γκρίζα ζώνη (δηλαδή, στην φάση πολιτικής αντιπαλότητας), πριν από οποιαδήποτε μη αναστρέψιμη κίνηση.
Μια τέτοια εξέλιξη θα επέτρεπε στους υπεύθυνους λήψης αποφάσεων να διατυπώνουν προληπτικές επιλογές (και όχι αντιδραστικές, όπως παλιά) και θα επέτρεπαν πολύ ταχύτερες αποφάσεις.
Εδώ υπάρχει ένα δελεαστικό ερώτημα: Τι μπορεί να πάει στραβά;
Όλοι γνωρίζουν ότι στο βασικό σενάριο των μυθιστορημάτων επιστημονικής φαντασίας και των ταινιών που εξερευνούν τις δυνατότητες τεχνητής νοημοσύνης, όπως τα Minority Report, The Forbin Project, War Games κλπ, πάντα κάτι πάει στραβά.
Η ιδέα θυμίζει επίσης περίεργα ένα σοβιετικό πρόγραμμα πληροφοριών, γνωστό ως RYaN, το οποίο σχεδιάστηκε για να προβλέψει μια πυρηνική επίθεση με βάση δείκτες δεδομένων και υπολογιστικές εκτιμήσεις.
Η συγκέντρωση ενός πραγματικά αμερόληπτου συνόλου δεδομένων, που έχει σχεδιαστεί για να προβλέπει συγκεκριμένα αποτελέσματα, παραμένει μια σημαντική πρόκληση, ειδικά για καταστάσεις ζωής και θανάτου και σε περιοχές με αραιή διαθεσιμότητα δεδομένων, όπως σε μία πυρηνική σύγκρουση.
Κατά τη δεκαετία του 1980, η KGB ήθελε να προβλέψει την έναρξη ενός πυρηνικού πολέμου, για έξι μήνες έως ένα ολόκληρο έτος νωρίτερα, από μια μεγάλη ποικιλία δεικτών – π.χ. απρογραμμάτιστη μετακίνηση ανώτερων αξιωματούχων, προετοιμασίες της FEMA, στρατιωτικές ασκήσεις και ειδοποιήσεις, προγραμματισμένη συντήρηση όπλων, άρνηση αδειών σε στρατιώτες, εγκρίσεις θεωρήσεων και ταξιδιωτικές πληροφορίες και δραστηριότητες ξένων μυστικών υπηρεσιών των ΗΠΑ.
Θεωρούσαν ακόμη και την αφαίρεση εγγράφων που σχετίζονται με την Αμερικανική Επανάσταση από τη δημόσια προβολή, ως πιθανό δείκτη πολέμου. Μαζική ποσότητα δεδομένων εισήχθη σε ένα μοντέλο υπολογιστή για να “υπολογίζει και παρακολουθεί το συσχετισμό των δυνάμεων, συμπεριλαμβανομένων των στρατιωτικών, την οικονομία, και ψυχολογικούς παράγοντες, για την εκχώρηση πιθανοτήτων». Τα ευρήματα από το Ryan συνέβαλαν στη Σοβιετική παράνοια για πιθανή πυρηνική επίθεση από τις ΗΠΑ το 1983 και σχεδόν οδήγησε την ηγεσία τους να ξεκινήσουν ένα πυρηνικό πόλεμο.
Παρόλο που μια τέτοια ιδέα ήρθε πολύ πριν από την εποχή της, οι σημερινές τεχνολογίες μηχανικής μάθησης είναι πλέον ικανές να ανιχνεύσουν λεπτές μορφές σε φαινομενικά τυχαία δεδομένα και θα μπορούσαν να ξεκινήσουν να κάνουν ακριβείς βραχυπρόθεσμες προβλέψεις για τους αντιπάλους. Εν μέσω του ενθουσιασμού για τα εργαλεία λήψης αποφάσεων με δυνατότητα τεχνητής νοημοσύνης, οι Αμερικανοί ηγέτες στην άμυνα της χώρας, ελπίζουν να αποκλείσουν κάθε ανησυχία, επιμένοντας ότι η υιοθέτησή τους θα είναι υπεύθυνη, οι άνθρωποι θα παραμείνουν στην διαδικασία ελέγχου και όλα τα συστήματα που παράγουν ακούσιες συνέπειες, θα είναι εκτός σύνδεσης.
Ωστόσο, εμπειρογνώμονες εθνικής ασφάλειας, όπως ο Paul Scharre, ο Michael Horowitz και πολλοί άλλοι, επισημαίνουν τα κρίσιμα τεχνικά εμπόδια που θα πρέπει να ξεπεραστούν, προτού τα οφέλη από τη χρήση εργαλείων με δυνατότητα τεχνητής νοημοσύνης υπερτερούν των δυνητικών κινδύνων.
Αν και υπάρχουν ήδη πολλά χρήσιμα δεδομένα για τη σύνδεση αλγορίθμων μηχανικής μάθησης, η συγκέντρωση ενός πραγματικά αμερόληπτου συνόλου δεδομένων που έχει σχεδιαστεί για να προβλέπει συγκεκριμένα αποτελέσματα, παραμένει μια σημαντική πρόκληση, ειδικά για καταστάσεις ζωής και θανάτου και σε περιοχές με αραιά δεδομένα, όπως σε μία πυρηνική σύγκρουση.
Η πολυπλοκότητα του πραγματικού κόσμου προσφέρει ένα άλλο σημαντικό εμπόδιο. Για να λειτουργήσουν σωστά, τα εργαλεία μηχανικής μάθησης απαιτούν ακριβή μοντέλα για το πώς λειτουργεί ο κόσμος, αλλά η ακρίβειά τους εξαρτάται σε μεγάλο βαθμό από την ανθρώπινη κατανόηση του κόσμου και πώς αυτή εξελίσσεται.
Δεδομένου ότι μια τέτοια πολυπλοκότητα συχνά αψηφά την ανθρώπινη κατανόηση (τρανό παράδειγμα ο Στανισλάβ Γεβγκράφοβιτς Πετρόφ), τα συστήματα με δυνατότητα τεχνητής νοημοσύνης είναι πιθανό να συμπεριφέρονται με απροσδόκητους τρόπους. Και ακόμη και αν ένα εργαλείο μηχανικής μάθησης ξεπεράσει αυτά τα εμπόδια και λειτουργήσει σωστά, το πρόβλημα της επεξηγήσεως μπορεί να εμποδίσει τους υπεύθυνους χάραξης πολιτικής να τα εμπιστευτούν, εάν δεν είναι σε θέση να καταλάβουν πώς το εργαλείο δημιούργησε τα διάφορα αποτελέσματα.
Η αξιοποίηση των εργαλείων με δυνατότητα τεχνητής νοημοσύνης για τη λήψη καλύτερων αποφάσεων είναι ένα γεγονός, αλλά η χρήση τους για την πρόβλεψη εχθρικών ενεργειών προκειμένου να τις προλάβουν, είναι ένα εντελώς διαφορετικό παιχνίδι.
Εκτός από τη δημιουργία φιλοσοφικών ερωτημάτων σχετικά με την ελεύθερη βούληση και το αναπόφευκτο, δεν είναι σαφές εάν τυχόν προληπτικές ενέργειες που έγιναν ως απάντηση στην προβλεπόμενη εχθρική συμπεριφορά, θα μπορούσαν να γίνουν αντιληπτές από την άλλη πλευρά ως επιθετικές και να καταλύσουν ένα πόλεμο που οι πρώτοι προσπάθησαν να αποφύγουν.