Εκ πρώτης όψεως, η διαφωνία μεταξύ του αμερικανικού υπουργείου πολέμου και της Anthropic, της startup εταιρείας που είναι ήδη μία από τις μεγαλύτερες δυνάμεις παγκοσμίως στον τομέα της Τεχνητής Νοημοσύνης, έχει κυρίως πολιτικό και φιλοσοφικό χαρακτήρα.
Σε αυτό σίγουρα έχουν συμβάλλει και οι δηλώσεις των δύο πλευρών. Ο πρόεδρος Τραμπ λίγο πολύ τους χαρακτήρισε «τρελούς αριστερούς» που θέλουν να επιβάλλουν τους όρους τους στο Πεντάγωνο και την στρατιωτική ηγεσία ενώ ο Ντάριο Αμοντέι που διευθύνει την επιχείρηση αναφέρθηκε σε ηθικά διλήμματα.
Σίγουρα υπάρχει και αυτή η διάσταση στην υπόθεση που μας απασχόλησε μερικές ώρες πριν την εκδήλωση των επιθέσεων των ΗΠΑ και του Ισραήλ στο Ιράν.
Η αλήθεια είναι όμως πως πίσω από αυτή την αντιπαράθεση βρίσκεται ένα πάρα πολύ σημαντικό ερώτημα που έχει άμεση σχέση με τον τρόπο που διεξάγονται και κυρίως θα διεξάγονται οι σύγχρονες πολεμικές επιχειρήσεις. Το ερώτημα είναι πολύ απλό και ταυτόχρονα πολύ δύσκολο να απαντηθεί: ποιος είναι ο βαθμός αυτονομίας που θα πρέπει να διαθέτουν τα αμυντικά συστήματα από την στιγμή που κυρίαρχο ρόλο στην λειτουργία τους παίζει πλέον η ΤΝ;
Όπως ξέρουμε, την Παρασκευή 27 Φεβρουαρίου η αμερικανική ηγεσία ανακοίνωσε την πλήρη διακοπή της συνεργασίας της με την νεαρή εταιρεία στον τομέα των αμυντικών συστημάτων και ο πρόεδρος Τραμπ δήλωσε πως θα απαγορεύσει την χρήση του λογισμικού της από όλους τους εξωτερικούς συνεργάτες της ομοσπονδιακής κυβέρνησης, κάνοντας χρήση μίας διαδικασίας που ποτέ στο παρελθόν δεν είχε χρησιμοποιηθεί κατά αμερικανικής επιχείρησης.
Όλα αυτά έγιναν μετά την αποτυχία πολυήμερων διαπραγματεύσεων για την επέκταση της προϋφιστάμενης συνεργασίας τους. Αυτό που φαίνεται πως οδήγησε στην αποτυχία των διαπραγματεύσεων ήταν η επιμονή της Anthropic σε δύο πράγματα: στην μη χρησιμοποίηση της δικής της τεχνολογίας TN για την μαζική παρακολούθηση Αμερικανών πολιτών και στην ύπαρξη ανθρώπινης παρουσίας που θα «επιβλέπει», σε ορισμένες περιπτώσεις, τις εφαρμογές ΤΝ που θα λαμβάνουν αποφάσεις κατά την διάρκεια εχθροπραξιών.
Για το δεύτερο ζήτημα η εταιρεία υποστήριξε, σε ανακοίνωσή της, πως δεν πιστεύει πως τα τωρινά μοντέλα Τεχνητής Νοημοσύνης είναι αρκούντως αξιόπιστα για να χρησιμοποιηθούν σε πλήρως αυτοματοποιημένα οπλικά συστήματα. Κατά τους New York Times, η ανησυχία της εταιρείας εστιάζεται κυρίως στην λειτουργία των αυτόνομων σμηνών από drones και στην λειτουργία ανθρωποειδών «ρομπότ δολοφόνων». Η ηγεσία του Πενταγώνου και ο Υπουργός Πολέμου έκριναν πως δεν μπορούσαν να δεχτούν αυτές τις απαιτήσεις και τα υπόλοιπα τα ξέρουμε.
Μία ημέρα μετά την ρήξη στις σχέσεις ΗΠΑ – Anthropic, ξεκίνησε η επίθεση των ΗΠΑ και του Ισραήλ στο Ιράν. Σύμφωνα με ρεπορτάζ που έκανε η Wall Street Journal, στην επίθεση αυτή χρησιμοποιήθηκε η εφαρμογή Claude AI της εταιρείας για «εκτίμηση των στοιχείων που παρέχουν οι υπηρεσίες πληροφοριών, εντοπισμό στόχων και προσομοίωση σεναρίων μάχης».
Σύμφωνα με την Parmy Olson του Bloomberg σε χθεσινό άρθρο της, κανείς δεν μπορεί να ξέρει τι ακριβώς σημαίνουν τα παραπάνω, καθώς δεν έχουν δοθεί επίσημες διευκρινίσεις και δεν προβλέπεται και κάποια σχετική υποχρέωση.
Όπως αναφέρει η ίδια αρθρογράφος, η χρήση του Claude από τις ΗΠΑ παρά τις ανακοινώσεις της αμέσως προηγούμενης ημέρας περί διακοπής της χρήσης του δεν αποτελεί έκπληξη καθώς δεν ήταν δυνατόν να «βγει» από τα συστήματα σε τόσο μικρό χρονικό διάστημα. Όπως μαθαίνουμε διαβάζοντας τον διεθνή Τύπο, το Claude AI έχει χρησιμοποιηθεί και σε άλλες περιπτώσεις από τις αμερικανικές ένοπλες δυνάμεις, με πιο πρόσφατο παράδειγμα την αμερικανική επέμβαση στην Βενεζουέλα.
Πώς όμως ακριβώς χρησιμοποιείται το Claude στις στρατιωτικές επιχειρήσεις; Όπως είναι εύκολο να αντιληφθούμε ψάχνοντας λίγο στο διαδίκτυο, η εφαρμογή Τεχνητής Νοημοσύνης βρίσκεται από τον περασμένο Νοέμβριο μέσα στην πλατφόρμα Τεχνητής Νοημοσύνης (AIP, Artificial Intelligence Platform) του Maven Smart System. Το Maven Smart System είναι το σύστημα του Υπουργείου Άμυνας που δημιουργήθηκε το 2017 με σκοπό την χρήση μηχανικής μάθησης για την ανάλυση των κινήσεων των drones.
Αρχικά είχε ανατεθεί στην Google αλλά μετά τις διαμαρτυρίες των εργαζομένων σε αυτήν πέρασε τελικά στην Palantir, η οποία το διαχειρίζεται εδώ και χρόνια.
Όπως αναφέρεται σε ανάλυση της οργάνωσης «The Soufan Center», σε ανάρτηση του «The Power Law» στο Substack και σε πολύ πρόσφατα άρθρα του Bloomberg, το Claude είναι ενσωματωμένο στο AIP και μέσω αυτού βοήθησε τις αμερικανικές υπηρεσίες στην επιχείρηση της Βενεζουέλας και στις επιχειρήσεις στο Ιράν, παίζοντας τον πολύ σημαντικό ρόλο του λογικού μηχανισμού πίσω από το σύστημα λήψης αποφάσεων.
Σύμφωνα με την ανάρτηση του «Power of Law» από την 27η Φεβρουαρίου, το Claude είναι το μοναδικό σύστημα Τεχνητής Νοημοσύνης που είχε δοκιμαστεί μέχρι τότε υπό συνθήκες πραγματικής πίεσης στα συστήματα του Πενταγώνου.
Ας αφήσουμε όμως για λίγο την Anthropic, καθώς η Τεχνητή Νοημοσύνη έχει χρησιμοποιηθεί και από άλλους σε πραγματικές πολεμικές συνθήκες. Είναι γνωστό πως εφαρμογές Τεχνητής Νοημοσύνης έχουν χρησιμοποιηθεί ευρέως από τον Ισραηλινό στρατό στην Γάζα από το 2023 μέχρι τώρα, όπως και το ότι αντίστοιχες εφαρμογές έχουν λάβει μέρος και στον πόλεμο της Ουκρανίας, τουλάχιστον από την μεριά των Ουκρανών.
Η εμπειρία από το σύστημα Lavender που χρησιμοποιήθηκε από το Ισραήλ δεν είναι απόλυτα ενθαρρυντική. Και στο άρθρο της Parmy Olson στο Bloomberg και στην ανάλυση του Soufan Center διαβάσαμε πως το Lavender δεν ήταν πάντα επιτυχές στην δουλειά του που ήταν ο εντοπισμός υπόπτων και πως παρόλα αυτά η ανθρώπινη επίβλεψη ήταν σε πολύ χαμηλό επίπεδο. Δεν μπορούμε να είμαστε σίγουροι για αυτές τις αναφορές, καθώς είναι προφανές πως ο ισραηλινός στρατός δεν έχει κανέναν λόγο να ανακοινώσει οτιδήποτε σχετικό.
Με αυτή την αφορμή όμως επανερχόμαστε στην διαφωνία μεταξύ ΗΠΑ και Anthropic σχετικά με την αναγκαιότητα ύπαρξης κάποιου επιπέδου ανθρώπινης επίβλεψης στα – τωρινά τουλάχιστον – οπλικά συστήματα τεχνητής νοημοσύνης. Όπως είπαμε προηγουμένως, ο Ντάριο Αμοντέι της Anthropic εκτιμά πως δεν πρέπει ακόμα να αφήσουμε εντελώς ελεύθερη την Τεχνητή Νοημοσύνη να παίρνει μόνη της αποφάσεις, στην συγκεκριμένη περίπτωση για το που και πότε θα χτυπήσουν τα σμήνη drones, καθώς υπάρχουν ακόμα ουσιαστικές πιθανότητες να γίνουν σημαντικά λάθη.
Από την μεριά τους οι αμερικανικές υπηρεσίες απαντούν λέγοντας πως αυτό θα μπορούσε να επηρεάσει αρνητικά την ταχύτητα αντίδρασης των σμηνών drones σε συνθήκες πολέμου. Υποστηρίζουν επίσης πως η ισχύουσα νομοθεσία που ορίζει τους αποδεκτούς τρόπους χρήσης οπλικών συστημάτων καλύπτει και τα συστήματα Τεχνητής Νοημοσύνης, κάτι με το οποίο δεν συμφωνεί ο Αμοντέι.
Είναι όλα αυτά σημαντικά; Ναι, πολύ σημαντικά μάλιστα. Ειδικά αν σκεφτούμε πως η Κίνα υποχρεώνει όλες τις τοπικές επιχειρήσεις να της παραχωρούν όποια τεχνολογία κρίνει απαραίτητη για στρατιωτική χρήση χωρίς κανένα περιορισμό. Όπως επισήμανε σε χθεσινό άρθρο των New York Times ο Julian E. Barnes, οι υπηρεσίες των ΗΠΑ εκτιμούν πως η έκβαση μίας υποθετικής σύρραξης μεταξύ ΗΠΑ και Κίνας πάνω από την Ταϊβάν θα κριθεί κατά κύριο λόγο από την πρώτη πολεμική πράξη, δηλαδή μία μονομαχία μεταξύ σμηνών drones πάνω από το στενό που χωρίζει την Κίνα από το νησί και εκεί η ταχύτητα αντίδρασής τους θα είναι ο πιο κρίσιμος παράγων.
Όπως πολύ σωστά επισήμανε λοιπόν ο Barnes, η ουσία της διαμάχης Anthropic – ΗΠΑ δεν έχει τόσο πολύ σχέση με τα δύο μέρη αλλά με τον τρόπο που θα διεξάγονται σύντομα οι πιο κρίσιμες πολεμικές επιχειρήσεις. Και τα δύο μέρη φαίνεται να έχουν κάποιο δίκιο αλλά εμείς υποψιαζόμαστε πως αυτό που θα καθορίσει την τελική στάση των ΗΠΑ, και ίσως αργότερα και της Ευρώπης, θα είναι η ταυτότητα των πιο πιθανών αντιπάλων και όχι τα ζητήματα ηθικής. Είτε αυτό μας αρέσει είτε όχι.
