«Δεν ξέρω με ποια όπλα θα γίνει ο Τρίτος Παγκόσμιος Πόλεμος, αλλά ο Τέταρτος θα γίνει με πέτρες και ρόπαλα» – Άλμπερτ Αϊνστάιν.
Το απόφθεγμα του Αϊνστάιν μας πάει πίσω, στα τέλη της δεκαετίας του 1940, όταν ο μέγας φυσικός μιλούσε για τον κίνδυνο της πυρηνικής καταστροφής μετά τη Χιροσίμα και το Ναγκασάκι. Ένας πυρηνικός πόλεμος θα μπορούσε να καταστρέψει τον τεχνολογικό πολιτισμό μας σε τέτοιο βαθμό, ώστε η ανθρωπότητα να επιστρέψει σε πρωτόγονες συνθήκες. Και οι πόλεμοι, τώρα, ήδη, δεν μοιάζουν μοιάζουν με εκείνους του παρελθόντος, άσχετα αν μπορεί να μας γυρίσουν, καταστροφικά στην αρχή -ή στο τέλος- των πάντων. Τα όπλα αλλάζουν, όσο και τα μυαλά πίσω από αυτά. Αλγόριθμοι που αναλύουν δεδομένα σε πραγματικό χρόνο, συστήματα που εντοπίζουν στόχους, λογισμικά που αξιολογούν απειλές πριν ακόμη εμφανιστούν στο πεδίο.
Η τεχνητή νοημοσύνη έχει αρχίσει να εισέρχεται στη στρατιωτική λήψη αποφάσεων με τρόπο που πριν από λίγα χρόνια θα θεωρούνταν σχεδόν αδιανόητος. Και όσο η τεχνολογία προχωρά, τόσο ασαφείς παραμένουν οι κανόνες της. Η πρόσφατη διεθνής διάσκεψη για την υπεύθυνη χρήση της τεχνητής νοημοσύνης στον στρατιωτικό τομέα, που πραγματοποιήθηκε στην Λα Κορούνια της Ισπανίας, ανέδειξε με απόλυτη καθαρότητα αυτό το παράδοξο. Περισσότερες από 80 χώρες συμμετείχαν στη συζήτηση. Μόλις 35 συμφώνησαν να υπογράψουν μια κοινή διακήρυξη αρχών. Και ενώ ο υπόλοιπος κόσμος προτιμούσε να παρακολουθεί, άλλος ένας πόλεμος, ξέσπασε, άγριος και τρομακτικός στη Μέση Ανατολή.
Η διεθνής διάσκεψη για τη χρήση ΑΙ στον πόλεμο και η απουσία των μεγάλων
Το πιο ηχηρό στοιχείο της διάσκεψης δεν ήταν οι χώρες που υπέγραψαν. Ήταν εκείνες που δεν το έκαναν. Δύο από τις ισχυρότερες στρατιωτικές δυνάμεις του πλανήτη, οι Ηνωμένες Πολιτείες και η Κίνα, απουσίαζαν από τους υπογράφοντες. Η απουσία τους αφαίρεσε σημαντικό πολιτικό βάρος από το κείμενο και ενίσχυσε την αίσθηση ότι η παγκόσμια συναίνεση για τον στρατιωτικό ρόλο της τεχνητής νοημοσύνης παραμένει ακόμη μακριά.
Διαβάστε ακόμα: Η Ευρώπη εξοπλίζεται αλλά με αργούς ρυθμούς – Αποκαλυπτική έρευνα για τις ευρωπαϊκές πρακτικές προμηθειών
Αντίθετα, μια ομάδα χωρών –μεταξύ τους ο Καναδάς, η Γαλλία, η Γερμανία, η Βρετανία, η Ολλανδία, η Νότια Κορέα και η Ουκρανία– εμφανίστηκε πρόθυμη να στηρίξει ένα κοινό πλαίσιο, έστω και αν αυτό δεν έχει δεσμευτικό χαρακτήρα. Η εικόνα θυμίζει την παλιά, γνωστή, πικρή πραγματικότητα πως οι μικρότεροι επιθυμούν κανόνες και οι μεγαλύτεροι κάνουν, απλά, ό,τι επιθυμούν. Η διακήρυξη που υιοθετήθηκε από τις 35 χώρες περιλαμβάνει 20 βασικές αρχές για τη χρήση της τεχνητής νοημοσύνης σε στρατιωτικά συστήματα. Κυριαρχεί μια ιδέα που μοιάζει απλή αλλά αποδεικνύεται δύσκολη στην εφαρμογή.
Η τελική ευθύνη για τη χρήση βίας πρέπει να παραμένει στον άνθρωπο. Οι αλγόριθμοι μπορούν να υποστηρίζουν την απόφαση, όχι να την αντικαθιστούν. Οι αρχές αυτές προβλέπουν σαφείς δομές διοίκησης και ελέγχου, αυστηρές δοκιμές των συστημάτων, εκπαίδευση προσωπικού και αξιολόγηση κινδύνων πριν από την επιχειρησιακή χρήση τους. Υπάρχει επίσης αναφορά στην ανταλλαγή πληροφοριών για τους εθνικούς μηχανισμούς εποπτείας, στο βαθμό που αυτό δεν συγκρούεται με ζητήματα εθνικής ασφάλειας. Με άλλα λόγια, μια προσπάθεια να δημιουργηθεί ένα πρώτο πλαίσιο κανόνων για έναν τεχνολογικό τομέα που αναπτύσσεται ταχύτερα από τη διπλωματία.
Το «δίλημμα του φυλακισμένου»
Παρά την ανάγκη για κανόνες, πολλές κυβερνήσεις εμφανίζονται επιφυλακτικές. Ο λόγος είναι γνωστός στη θεωρία των διεθνών σχέσεων ως το λεγόμενο «δίλημμα του φυλακισμένου». Κάθε κράτος αναγνωρίζει ότι ένας κοινός περιορισμός θα μπορούσε να μειώσει τους κινδύνους. Την ίδια στιγμή, όμως, φοβάται ότι αν κινηθεί πρώτο προς αυτή την κατεύθυνση, ίσως βρεθεί σε μειονεκτική θέση απέναντι σε ανταγωνιστές που δεν θα κάνουν το ίδιο. Όπου η τεχνολογική υπεροχή μεταφράζεται άμεσα σε στρατιωτική ισχύ, λίγες κυβερνήσεις είναι πρόθυμες να κρατηθούν πίσω, για το καλό όλων. Οι πόλεμοι που μαίνονται, οι γενικευμένες γεωπολιτικές εντάσεις, ο ανταγωνισμός μεταξύ Ηνωμένων Πολιτειών και Κίνας, η Ευρώπη και η στρατηγική της, ενίσχυσαν κάθε επιφυλακτικότητα. Η συζήτηση που όλοι αναγνώρισαν ως αναγκαία και κρίσιμη, δεν έδειξε καμιά προθημεία για δεσμεύσεις.
Άλλωστε, η σύνοδος της Α Κορούνια δεν ήταν η πρώτη προσπάθεια για τη ρύθμιση της στρατιωτικής τεχνητής νοημοσύνης. Σε προηγούμενες διεθνείς συναντήσεις, στη Χάγη και τη Σεούλ, περισσότερα κράτη είχαν υποστηρίξει ένα γενικό σχέδιο δράσης για την υπεύθυνη χρήση της τεχνολογίας. Ωστόσο, και εκεί οι αποφάσεις παρέμειναν μη δεσμευτικές. Η φετινή διακήρυξη προχώρησε περισσότερο στο περιεχόμενο των αρχών, αλλά λιγότερο στην πολιτική συμμετοχή. Θα αποτελέσουν αυτές οι 20 αρχές τον σπόρο για ένα μελλοντικό διεθνές πλαίσιο ή θα μείνουν μια ακόμη καλή πρόθεση σε έναν τομέα που εξελίσσεται πολύ γρήγορα για να περιμένει τη συναίνεση των κρατών; Η διεθνής διάσκεψη για κανόνες στη στρατιωτική τεχνητή νοημοσύνη ολοκληρώθηκε στην Α Κορούνια στις αρχές Φεβρουαρίου. Τρεις εβδομάδες αργότερα, ένας νέος πόλεμος ξέσπασε στη Μέση Ανατολή.
Οι κανόνες ακόμη συζητούνται και οι αλγόριθμοι ήδη πολεμούν.



