Για περισσότερο από μισό αιώνα, η αρχιτεκτονική της παγκόσμιας πυρηνικής αποτροπής βασιζόταν σε μια θεμελιώδη παραδοχή: τη βεβαιότητα ότι η τελική απόφαση για τον αφανισμό ή τη σωτηρία του πλανήτη θα λαμβανόταν από ανθρώπους. Αυτή η σταθερά, ωστόσο, τίθεται πλέον υπό ριζική αμφισβήτηση.
Οι κορυφαίες στρατιωτικές δυνάμεις του κόσμου ενσωματώνουν σιωπηλά και με ταχύτατους ρυθμούς συστήματα Τεχνητής Νοημοσύνης (AI) στα συστήματα διοίκησης, ελέγχου και επικοινωνιών των πυρηνικών τους οπλοστασίων, τα λεγόμενα NC3 (Nuclear Command, Control, and Communications).
Η ανάθεση κρίσιμων πυρηνικών αποφάσεων στους αλγόριθμους μπορεί να προκαλέσει έναν αστραπιαίο και καταστροφικό πόλεμο
Όπως προειδοποιούν τα μεγαλύτερα διεθνή ερευνητικά ινστιτούτα, αυτή η μετάβαση εισάγει την ανθρωπότητα στο «Δόγμα του Μαύρου Κουτιού» — μια εποχή όπου οι αλγόριθμοι, των οποίων η συλλογιστική πορεία παραμένει αδιαφανής ακόμα και για τους δημιουργούς τους, ενδέχεται να υπαγορεύσουν το πρώτο πυρηνικό χτύπημα.
Η Συμπίεση του Χρόνου και η Αποσταθεροποίηση
Η κύρια ελκυστικότητα της Τεχνητής Νοημοσύνης για τις ένοπλες δυνάμεις είναι η άνευ προηγουμένου ικανότητά της να επεξεργάζεται ωκεανούς δεδομένων από δορυφόρους, ραντάρ και δίκτυα παρακολούθησης σε κλάσματα του δευτερολέπτου.
Σε αναλυτική της έκθεση με τίτλο Artificial Intelligence, and Nuclear Command, Control, and Communications, η Ομοσπονδία Αμερικανών Επιστημόνων (Federation of American Scientists – FAS) αποκαλύπτει ότι οι αλγόριθμοι μπορούν να αναγνωρίσουν μοτίβα επιθέσεων πολύ πριν αυτά γίνουν αντιληπτά από τον ανθρώπινο εγκέφαλο.
Εδώ, όμως, κρύβεται η παγίδα. Σύμφωνα με την έκθεση, η ταχύτητα της μηχανής συμπιέζει δραματικά τον διαθέσιμο χρόνο λήψης αποφάσεων (decision-making time).
Κατά τη διάρκεια του Ψυχρού Πολέμου, οι ηγέτες είχαν λίγα, πολύτιμα λεπτά για να εξετάσουν εάν ένας συναγερμός ήταν αληθινός ή αποτέλεσμα τεχνικού σφάλματος — γεγονός που απέτρεψε τον πυρηνικό όλεθρο σε αρκετές καταγεγραμμένες περιπτώσεις.
Αντίθετα, στην εποχή της AI, ο χρόνος αντίδρασης εκμηδενίζεται. Εάν ένα αλγοριθμικό σύστημα έγκαιρης προειδοποίησης υποδείξει, εν μέσω μιας κρίσης, ότι ο αντίπαλος ετοιμάζεται να εκτοξεύσει πυραύλους, η πίεση για ένα προληπτικό χτύπημα (preemptive strike) καθίσταται σχεδόν αφόρητη.
Η ταχύτητα των αλγορίθμων στα πυρηνικά οπλοστάσια μηδενίζει τον χρόνο αντίδρασης προκαλώντας τον απόλυτο τρόμο
Το «Μαύρο Κουτί» και η Προκατάληψη Αυτοματοποίησης
Ο κίνδυνος πολλαπλασιάζεται λόγω της ίδιας της φύσης της τεχνολογίας. Η σύγχρονη μηχανική μάθηση και τα νευρωνικά δίκτυα λειτουργούν ως «μαύρα κουτιά». Εξάγουν συμπεράσματα μέσα από δαιδαλώδεις συσχετίσεις δεδομένων που κανένας άνθρωπος αναλυτής δεν μπορεί να ιχνηλατήσει ή να επαληθεύσει γραμμικά τη στιγμή της κρίσης.
Το Ινστιτούτο Ερευνών για την Ειρήνη της Στοκχόλμης (SIPRI), σε πρόσφατη μελέτη του γύρω από την ενσωμάτωση της AI στα πυρηνικά συστήματα μεγάλων δυνάμεων, επικεντρώνεται στο φαινόμενο της «Προκατάληψης Αυτοματοποίησης» (Automation Bias).
Η ιστορία έχει αποδείξει ότι οι χειριστές συστημάτων τείνουν να εμπιστεύονται τυφλά τις ενδείξεις των προηγμένων υπολογιστών, παραμερίζοντας τη δική τους λογική ή διαίσθηση.
Αν ένα σύστημα υποδείξει ότι η χώρα δέχεται επίθεση, είναι εξαιρετικά απίθανο ο στρατιωτικός ηγέτης να αμφισβητήσει τον υπερ-υπολογιστή, ειδικά όταν γνωρίζει ότι κάθε δευτερόλεπτο καθυστέρησης κοστίζει εκατομμύρια ζωές.
Επιπλέον, το SIPRI επισημαίνει ότι τα συστήματα αυτά είναι ευάλωτα σε «ανταγωνιστικές επιθέσεις» (adversarial attacks), όπου απειροελάχιστες και αόρατες στον άνθρωπο αλλοιώσεις στα δεδομένα εισαγωγής μπορούν να ξεγελάσουν την AI, οδηγώντας την σε καταστροφικά λανθασμένα συμπεράσματα.
Ο εφιάλτης του Launch on Warning
Αυτή η δυναμική γίνεται εφιαλτική όταν συνδυάζεται με στρατιωτικά δόγματα όπως η «Εκτόξευση βάσει Προειδοποίησης» (Launch on Warning).
Αναλυτές ασφαλείας, όπως οι Michael Depp και Paul Scharre, σε σχετικές αναλύσεις τους στο έγκριτο περιοδικό εξωτερικής πολιτικής και άμυνας War on the Rocks, τονίζουν ότι η τεχνητή νοημοσύνη διαβρώνει την πυρηνική σταθερότητα ακριβώς επειδή ενθαρρύνει τη βιασύνη.
Εάν τα κράτη πιστέψουν ότι οι αλγόριθμοι του αντιπάλου μπορούν να εντοπίσουν και να καταστρέψουν τα σιλό τους άμεσα, μπαίνουν στον πειρασμό να παραδώσουν τον έλεγχο των δικών τους όπλων στις μηχανές, προκειμένου να διασφαλίσουν την ανταποδοτική ικανότητά τους.
Μια τέτοια κλιμάκωση (flash escalation) θα μπορούσε να ξεκινήσει έναν πυρηνικό πόλεμο κατά λάθος, πυροδοτούμενο από την παρερμηνεία δεδομένων (π.χ. ενός σμήνους από πουλιά ή μιας ανωμαλίας των ραντάρ, που ο αλγόριθμος αντιλαμβάνεται ως επίθεση), χωρίς ποτέ να υπάρξει συνειδητή πολιτική απόφαση για έναρξη εχθροπραξιών.
Το Ρολόι της Αποκάλυψης και η Σύγκλιση των Απειλών
Η κρισιμότητα της κατάστασης αποτυπώνεται χαρακτηριστικά από το «Ρολόι της Αποκάλυψης» (Doomsday Clock) που διατηρεί το Bulletin of the Atomic Scientists. Οι επιστήμονες του οργανισμού κρούουν τον κώδωνα του κινδύνου για τη θανατηφόρα σύγκλιση της πυρηνικής απειλής με τις νέες, ανατρεπτικές τεχνολογίες (disruptive technologies).
Σύμφωνα με το περιοδικό, η Τεχνητή Νοημοσύνη δρα ως «πολλαπλασιαστής απειλής».
Ακόμα και αν ένας αλγόριθμος δεν έχει άμεση πρόσβαση στον διακόπτη εκτόξευσης, η ικανότητά του να παραποιεί την εικόνα του πεδίου της μάχης, να χακάρει επικοινωνίες ή να δημιουργεί υπερ-ρεαλιστικά deepfakes εν μέσω κρίσης, μπορεί να πείσει τους ηγέτες μιας πυρηνικής δύναμης ότι δέχονται επίθεση, προκαλώντας την αντίδρασή τους.
Η ανάγκη για διεθνή έλεγχο
Όλες οι διεθνείς εκθέσεις καταλήγουν σε ένα κοινό, αμείλικτο συμπέρασμα: ο έλεγχος των εξοπλισμών στον 21ο αιώνα δεν μπορεί να περιορίζεται στην καταμέτρηση πυρηνικών κεφαλών και βομβαρδιστικών. Πρέπει επειγόντως να επεκταθεί στις αλγοριθμικές υποδομές.
Η διατήρηση του «ουσιαστικού ανθρώπινου ελέγχου» (meaningful human control) στην αλυσίδα εντολών δεν είναι απλώς ένα ηθικό αίτημα, αλλά η απόλυτη προϋπόθεση για τη βιολογική επιβίωση του είδους.
Όσο τα κράτη παρασύρονται από την ψευδαίσθηση της αλγοριθμικής υπεροχής και επιτρέπουν στην Τεχνητή Νοημοσύνη να διεισδύσει στα συστήματα ελέγχου, ο κόσμος πλησιάζει σε ένα σημείο όπου το τέλος της ανθρωπότητας δεν θα προέλθει από στρατηγικό σχεδιασμό, αλλά από μια ανεξέλεγκτη μαθηματική εξίσωση σε ένα ψηφιακό μαύρο κουτί.
Πηγή: in.gr





