axios.com
Οι Dave Lawler και Maria Curi
Ο στρατός των ΗΠΑ χρησιμοποίησε το μοντέλο τεχνητής νοημοσύνης Claude της εταιρείας Anthropic κατά τη διάρκεια της επιχείρησης για τη σύλληψη του Nicolás Maduro, σύμφωνα με δύο πηγές που έχουν γνώση της υπόθεσης και μίλησαν στο Axios.
Τώρα, οι αντιδράσεις ενδέχεται να απειλήσουν τη συνεργασία της εταιρείας με το Πεντάγωνο.
Οι τελευταίες εξελίξεις
Μετά τις αναφορές για τη χρήση του Claude στην επιχείρηση, ανώτερος αξιωματούχος της αμερικανικής κυβέρνησης δήλωσε στο Axios ότι το Πεντάγωνο θα επανεξετάσει τη συνεργασία του με την Anthropic.
«Η Anthropic ρώτησε εάν το λογισμικό της χρησιμοποιήθηκε στην επιχείρηση σύλληψης του Μαδούρο, γεγονός που προκάλεσε σοβαρές ανησυχίες στο Υπουργείο Άμυνας, καθώς αυτό υποδήλωνε ότι ενδεχομένως να μην ενέκριναν τη χρήση του», ανέφερε ο αξιωματούχος.
«Οποιαδήποτε εταιρεία θα μπορούσε να θέσει σε κίνδυνο την επιχειρησιακή επιτυχία των στρατιωτών μας στο πεδίο είναι μια εταιρεία με την οποία πρέπει να επανεξετάσουμε τη συνεργασία μας στο μέλλον.»
Εκπρόσωπος της Anthropic αρνήθηκε τον ισχυρισμό:
«Η Anthropic δεν έκανε καμία τέτοια κλήση στο Υπουργείο Άμυνας.»
Γιατί έχει σημασία
Το επεισόδιο αναδεικνύει τις εντάσεις που αντιμετωπίζουν τα μεγάλα εργαστήρια τεχνητής νοημοσύνης, καθώς συνεργάζονται με τον στρατό προσπαθώντας ταυτόχρονα να διατηρήσουν περιορισμούς στον τρόπο χρήσης των εργαλείων τους.
Ανάλυση
Τα μοντέλα τεχνητής νοημοσύνης μπορούν να επεξεργάζονται γρήγορα δεδομένα σε πραγματικό χρόνο — δυνατότητα ιδιαίτερα χρήσιμη για το Πεντάγωνο, δεδομένων των χαοτικών συνθηκών στις οποίες διεξάγονται στρατιωτικές επιχειρήσεις.
Το Axios δεν μπόρεσε να επιβεβαιώσει τον ακριβή ρόλο που διαδραμάτισε το Claude στην επιχείρηση σύλληψης του Μαδούρο. Ο στρατός έχει χρησιμοποιήσει στο παρελθόν το Claude για ανάλυση δορυφορικών εικόνων ή πληροφοριών. Σύμφωνα με τις πηγές, το Claude χρησιμοποιήθηκε κατά τη διάρκεια της ενεργής επιχείρησης και όχι μόνο στο στάδιο της προετοιμασίας.
Κανένας Αμερικανός δεν σκοτώθηκε στην επιχείρηση. Η Κούβα και η Βενεζουέλα δήλωσαν ότι δεκάδες στρατιώτες και στελέχη ασφαλείας τους σκοτώθηκαν.
Σημείο τριβής
Το Πεντάγωνο επιθυμεί οι εταιρείες τεχνητής νοημοσύνης να επιτρέπουν τη χρήση των μοντέλων τους σε κάθε σενάριο, εφόσον τηρείται ο νόμος.
Η Anthropic, που έχει τοποθετηθεί ως εταιρεία με προτεραιότητα στην ασφάλεια, διαπραγματεύεται αυτή τη στιγμή με το Πεντάγωνο τους όρους χρήσης. Θέλει να διασφαλίσει, ειδικότερα, ότι η τεχνολογία της δεν θα χρησιμοποιηθεί για μαζική επιτήρηση Αμερικανών πολιτών ή για τη λειτουργία πλήρως αυτόνομων όπλων.
Πηγή που γνωρίζει τις συζητήσεις ανέφερε στο Axios ότι η εταιρεία είναι πεπεισμένη πως ο στρατός έχει συμμορφωθεί σε όλες τις περιπτώσεις με την ισχύουσα πολιτική χρήσης της, η οποία περιλαμβάνει πρόσθετους περιορισμούς.
Τι δηλώνουν
«Δεν μπορούμε να σχολιάσουμε εάν το Claude, ή οποιοδήποτε άλλο μοντέλο τεχνητής νοημοσύνης, χρησιμοποιήθηκε σε συγκεκριμένη επιχείρηση, διαβαθμισμένη ή μη», δήλωσε ο εκπρόσωπος της Anthropic.
«Οποιαδήποτε χρήση του Claude — είτε στον ιδιωτικό τομέα είτε στο κράτος — οφείλει να συμμορφώνεται με τις Πολιτικές Χρήσης μας, που καθορίζουν τον τρόπο ανάπτυξης και αξιοποίησης του μοντέλου. Συνεργαζόμαστε στενά με τους εταίρους μας για να διασφαλίσουμε τη συμμόρφωση.»
Ο Υπουργός Άμυνας Pete Hegseth έχει δώσει έμφαση στην τεχνητή νοημοσύνη και έχει δηλώσει ότι επιθυμεί τη γρήγορη ενσωμάτωσή της σε όλους τους τομείς του στρατού, εν μέρει για να διατηρηθεί το προβάδισμα έναντι της Κίνα.
Ανώτεροι αξιωματούχοι του Πενταγώνου έχουν εκφράσει δυσαρέσκεια για τη στάση της Anthropic όσον αφορά τις ασφαλιστικές δικλείδες.
Η ευρύτερη εικόνα
Η Anthropic είναι μία από τις μεγάλες εταιρείες που συνεργάζονται με το Πεντάγωνο.
Η OpenAI, η Google και η xAI έχουν επίσης συνάψει συμφωνίες που επιτρέπουν σε στρατιωτικούς χρήστες να έχουν πρόσβαση στα μοντέλα τους χωρίς πολλούς από τους περιορισμούς που ισχύουν για τους απλούς χρήστες. Δεν είναι σαφές αν χρησιμοποιήθηκαν και άλλα μοντέλα στην επιχείρηση στη Βενεζουέλα.
Ωστόσο, οι πιο ευαίσθητες στρατιωτικές λειτουργίες — από δοκιμές όπλων έως επικοινωνίες κατά τη διάρκεια ενεργών επιχειρήσεων — πραγματοποιούνται σε διαβαθμισμένα συστήματα. Προς το παρόν, μόνο το σύστημα της Anthropic είναι διαθέσιμο σε αυτές τις πλατφόρμες.
Η Anthropic διαθέτει επίσης συνεργασία με την Palantir, εταιρεία λογισμικού τεχνητής νοημοσύνης με εκτεταμένα συμβόλαια με το Πεντάγωνο, που επιτρέπει τη χρήση του Claude στα προϊόντα ασφαλείας της. Δεν είναι σαφές αν η χρήση του Claude στην επιχείρηση συνδεόταν με αυτή τη συνεργασία.
Τι να αναμένεται
Οι συζητήσεις συνεχίζονται μεταξύ του Πενταγώνου και των OpenAI, Google και xAI σχετικά με την πιθανή χρήση των εργαλείων τους σε διαβαθμισμένα συστήματα. Η Anthropic και το Πεντάγωνο συζητούν επίσης το ενδεχόμενο χαλάρωσης των περιορισμών στο Claude.
Σημείωση σύνταξης: Ο τίτλος και το κείμενο ενημερώθηκαν βάσει σχολίων ανώτερου Αμερικανού αξιωματούχου.


