![]()
ΕΙΝΑΙ ΤΟ ΙΡΑΝ ΤΟ ΣΗΜΕΙΟ ΟΠΟΥ ΞΕΚΙΝΟΥΝ ΟΙ «ΑΙ-ΚΙΝΟΥΜΕΝΟΙ» ΑΤΕΛΕΙΩΤΟΙ ΠΟΛΕΜΟΙ;
Του Simon Allison
Η ιστορία: Μαζί, οι ΗΠΑ και το Ισραήλ έπληξαν πάνω από 2.000 στόχους μέσα στις πρώτες 24 ώρες του πολέμου. Ακόμη και για τα μεγαλύτερα στρατεύματα, είναι ένα σχεδόν αδύνατο έργο να εντοπίσουν, να επιλέξουν και στη συνέχεια να προσδιορίσουν με ακρίβεια τη θέση ενός τόσο μεγάλου όγκου στόχων. Όμως ο αμερικανικός στρατός είχε κάποια βοήθεια. Το Claude, ο «βοηθός τεχνητής νοημοσύνης επόμενης γενιάς» που ανέπτυξε η Anthropic, χρησιμοποιήθηκε στον σχεδιασμό της «Επιχείρησης Epic Fury». Αυτό, παρότι το Υπουργείο Πολέμου πρόσφατα χαρακτήρισε την Anthropic «κίνδυνο για την εφοδιαστική αλυσίδα».
Το πλαίσιο: Η Anthropic και η Palantir, που μπορεί κανείς να υποστηρίξει ότι αποτελούν την πλατφόρμα λειτουργίας του σημερινού αμερικανικού πολέμου και της συλλογής/ανάλυσης πληροφοριών, συνεργάζονται από το 2024 με το Πεντάγωνο για να ενσωματώσουν τα συστήματά τους στη στρατιωτική λήψη αποφάσεων. Παρότι ο υπουργός Άμυνας Pete Hegseth δήλωσε ότι η εταιρεία «παρέδωσε ένα master class στην αλαζονεία και την προδοσία» και ότι η κυβέρνηση θα «σταματήσει κάθε χρήση της τεχνολογίας της Anthropic», η εταιρεία είναι τόσο ενσωματωμένη στη σύγχρονη αμερικανική πολεμική λειτουργία, ώστε είναι δύσκολο να μην είναι ουσιώδης για την αμερικανική επίθεση στο Ιράν. Το ερώτημα ίσως δεν είναι αν εταιρείες όπως η Anthropic μπορούν να «περιφράξουν» την τεχνολογία τους, αλλά αν το Πεντάγωνο μπορεί απλώς να την επιτάξει.
Ο Craig Jones, ακαδημαϊκός που μελετά αυτοματοποιημένες «αλυσίδες φονεύσεως» (automated kill chains) στο University of Newcastle, έχει πει σε δημοσιογράφους ότι «η μηχανή τεχνητής νοημοσύνης κάνει συστάσεις για το τι να στοχοποιηθεί, πράγμα που σε κάποιες πλευρές είναι στην πραγματικότητα ταχύτερο από την ταχύτητα της σκέψης». Παρόμοια συστήματα AI έχουν χρησιμοποιηθεί από το Ισραήλ για να συντονίσει την εκστρατεία βομβαρδισμών του στη Γάζα, η οποία συγκαταλέγεται στις πιο καταστροφικές στην ανθρώπινη ιστορία.
Εξάσκηση στόχων: Ανάμεσα στα πρώτα πλήγματα στον αεροπορικό βομβαρδισμό του Ιράν από τις Ηνωμένες Πολιτείες και το Ισραήλ ήταν το δημοτικό σχολείο θηλέων Shajarah Tayyebeh, στη νότια πόλη Minab. Ήταν Σάββατο πρωί και το σχολείο λειτουργούσε. Σύμφωνα με ιρανικά κρατικά μέσα ενημέρωσης, τουλάχιστον 165 άνθρωποι σκοτώθηκαν, κυρίως μικρά κορίτσια ηλικίας από επτά έως 12 ετών. Άλλοι 96 τραυματίστηκαν σοβαρά. Μαρτυρίες αυτοπτών και αναφορές από open source intelligence επιβεβαιώνουν τους ισχυρισμούς για μαζικές απώλειες αμάχων. Τόσο το Ιράν όσο και το Ισραήλ έχουν αρνηθεί την ευθύνη. Οι Ηνωμένες Πολιτείες είπαν ότι «εξετάζουν» τις καταγγελίες ότι το σχολείο καταστράφηκε από έναν από τους πυραύλους τους. Ίσως, δεδομένου του όγκου των βομβαρδισμών, έχουν χάσει τον λογαριασμό.
Εκτός κλίματος (out of the loop): Οι ΤΝ κάνουν λάθη συνέχεια. Μπορεί να είναι ένα επιπλέον δάχτυλο σε μια εικόνα που δημιουργήθηκε με ΤΝ ή μια «παραισθημένη» (hallucinated) παραπομπή σε μια ερευνητική έκθεση. Ή, μπορεί, ένας αλγόριθμος να στείλει έναν πύραυλο στη λάθος διεύθυνση. Γι’ αυτό ο CEO της Anthropic, Dario Amodei, έχει πει ότι όπλα «που βγάζουν τους ανθρώπους τελείως εκτός του βρόχου (out of the loop) και αυτοματοποιούν την επιλογή και την εμπλοκή στόχων» απλώς δεν είναι αρκετά αξιόπιστα. Αυτή η θέση — μαζί με την άρνηση της Anthropic να επιτρέψει να χρησιμοποιηθεί το Claude για μαζική εγχώρια παρακολούθηση (αν και δεν έχει πρόβλημα με την ξένη παρακολούθηση) — οδήγησε το Πεντάγωνο στην ακύρωση μιας σύμβασης 200 εκατ. δολαρίων με την εταιρεία την Παρασκευή, δηλαδή μία ημέρα πριν ξεκινήσουν οι επιθέσεις στο Ιράν. Το «Υπουργείο Πολέμου» υπέγραψε αμέσως μια νέα συμφωνία, χωρίς οποιεσδήποτε ηθικές δικλίδες ασφαλείας, με την OpenAI.
Η ψευδαίσθηση της «Ηθικής ΤΝ»: Η αντιπαράθεση της Anthropic με το Πεντάγωνο έχει γυαλίσει τη φήμη της ως «ηθικής» εταιρείας ΤΝ. Όμως μπορεί να βρήκε την ηθική της ραχοκοκαλιά πολύ αργά. Οι επικριτές υποστηρίζουν ότι ακόμη και μέσα στις «κόκκινες γραμμές» της Anthropic υπάρχει τεράστια δυνατότητα κατάχρησης, ενώ το «άνθρωπος στον βρόχο» (human in the loop) δεν αποτρέπει κατ’ ανάγκην τα λάθη — κάτι που εγείρει ερωτήματα για το ποιος, ακριβώς, φέρει την ευθύνη όταν αυτά τα λάθη οδηγούν σε θανάτους. Η Francesca Albanese, ειδική εισηγήτρια των Ηνωμένων Εθνών για την Παλαιστίνη, κατηγόρησε την Amazon, τη Google και τη Microsoft το 2025 ότι είναι «συνεργοί σε γενοκτονία» επειδή παρείχαν συστήματα αποθήκευσης στο cloud στον ισραηλινό στρατό. Η ενσωμάτωση της Anthropic στον αμερικανικό στρατό ήταν πολύ βαθύτερη.
Πώς θα διεξάγονται οι μελλοντικοί πόλεμοι: Ενώ το Ισραήλ και οι ΗΠΑ διεξάγουν έναν πόλεμο που κινείται από την ΤΝ, το Ιράν απαντά με μια δική του τεχνολογική επανάσταση. Η Ισλαμική Δημοκρατία έχει πρωτοπορήσει στην παραγωγή χαμηλού κόστους «μονόδρομων» επιθετικών drones (one-way attack drones), με πιο χαρακτηριστικό το Shahed-136, το οποίο κοστίζει μόλις 34.000 δολάρια για να παραχθεί και έως 4 εκατ. δολάρια για να καταρριφθεί. Αυτά έχουν δοκιμαστεί σε πραγματικές συνθήκες μάχης: η Ρωσία έχει εκτοξεύσει, κατά εκτίμηση, 57.000 drones τύπου Shahed στον πόλεμό της στην Ουκρανία. Παρά την αμερικανική εξάρτηση από τα δικά της υψηλής τεχνολογίας, «AI-powered» συστήματα, μια αμερικανική εκδοχή του Shahed έκανε επίσης το ντεμπούτο της, μαζί με το Claude, στην επίθεση κατά του Ιράν.
Σε απάντηση, το Ιράν έχει στρέψει περισσότερα από 1.000 drones προς γειτονικά κράτη του Κόλπου από τότε που ξέσπασε ο πόλεμος το Σάββατο. Εκατοντάδες έχουν καταρριφθεί, αλλά ακόμη και οι πιο εξελιγμένες αντιαεροπορικές άμυνες δυσκολεύονται με αυτόν τον τεράστιο όγκο, και δεκάδες έχουν πλήξει τους στόχους τους, απειλώντας να παρατείνουν αυτόν τον πόλεμο και να προκαλέσουν περισσότερες ζημιές σε συμμάχους των ΗΠΑ απ’ ό,τι αναμενόταν. Είναι σημαντικό ότι στους στόχους αυτούς περιλαμβάνονταν τουλάχιστον τρία data centers της Amazon στο Ντουμπάι και στο Μπαχρέιν. Μόλις τον περασμένο μήνα, η Amazon ανακοίνωσε ότι καθιστά το Claude της Anthropic διαθέσιμο στους πελάτες της στη Μέση Ανατολή. Το Claude παρουσίασε δύο παγκόσμιες διακοπές λειτουργίας αυτή την εβδομάδα — δεν είναι σαφές αν σχετίζονταν με τις επιθέσεις στα data centers.
Το συμπέρασμα: Οι «ευαγγελιστές» της τεχνολογίας υπόσχονται ότι η τεχνητή νοημοσύνη, κάποια μέρα, θα θεραπεύσει τον καρκίνο, θα εξαλείψει τη φτώχεια και θα αυξήσει σημαντικά την ποιότητα της ζωής μας. Όμως η πιο προφανής επίδραση της νέας τεχνολογίας μέχρι στιγμής έχει εμφανιστεί στον πόλεμο. Για όσους έχουν πρόσβαση σε αυτά, συστήματα ΤΝ όπως το Claude κάνουν δραματικά ευκολότερο να βομβαρδίζεις εκατοντάδες στόχους ταυτόχρονα — και πολύ δυσκολότερο να διαπιστώσεις ποιος λογοδοτεί όταν κάτι πάει στραβά. Στο Truth Social, ο Donald Trump — που έχει υποσχεθεί να σταματήσει τους πολέμους, όχι να τους ξεκινήσει — έγραψε με επιδοκιμασία ότι η τεχνολογία και τα πυρομαχικά πλέον σημαίνουν πως οι Πόλεμοι «μπορούν να διεξάγονται “για πάντα”, και πολύ επιτυχημένα».


