Το Πεντάγωνο Επικαλείται την OpenAI Εν μέσω Σύγκρουσης με την Anthropic
Η OpenAI κερδίζει την εμπιστοσύνη του αμερικανικού στρατού, ενώ η Anthropic αντιμετωπίζει αυστηρά μέτρα από την κυβέρνηση Τραμπ.
Το αμερικανικό Πεντάγωνο επέλεξε τα μοντέλα τεχνητής νοημοσύνης (AI) της OpenAI, μετά από ένα τελεσίγραφο του προέδρου Ντόναλντ Τραμπ προς την κυβέρνησή του να σταματήσει κάθε χρήση των μοντέλων της Anthropic. Η τελευταία εταιρεία αρνήθηκε να παράσχει απεριόριστη πρόσβαση στον αμερικανικό στρατό.
Ο επικεφαλής της OpenAI, Σαμ Άλτμαν, ανακοίνωσε στο X (πρώην Twitter) τη σύναψη συμφωνίας με το “υπουργείο Πολέμου” (όπως αναφέρεται το υπουργείο Άμυνας από την κυβέρνηση Τραμπ) για την ανάπτυξη των μοντέλων της OpenAI στο διαβαθμισμένο δίκτυό τους. Η συμφωνία, σύμφωνα με τον Άλτμαν, περιλαμβάνει την απαγόρευση της μαζικής παρακολούθησης σε εθνικό επίπεδο και διασφαλίζει την ανθρώπινη ευθύνη στη χρήση βίας, ιδίως σε αυτόματα οπλικά συστήματα. Αυτοί ήταν οι όροι που είχε θέσει προηγουμένως η Anthropic. Ο Άλτμαν τόνισε επίσης την εφαρμογή τεχνικών εγγυήσεων για τη διασφάλιση της σωστής συμπεριφοράς των μοντέλων, κάτι που επιθυμεί και το Πεντάγωνο.
Η ανακοίνωση αυτή έγινε λίγες ώρες αφότου ο πρόεδρος Τραμπ ζήτησε από την κυβέρνησή του να διακόψει άμεσα κάθε χρήση των προϊόντων της Anthropic. Ο Αμερικανός πρόεδρος, σε ανάρτησή του στο Truth Social, δήλωσε: “Δεν το έχουμε ανάγκη, δεν το θέλουμε και δεν θα συνεργαζόμαστε πια μαζί τους”. Κατήγγειλε ότι ο “εγωισμός τους θέτει σε κίνδυνο αμερικανικές ζωές, τα στρατεύματά μας και την εθνική ασφάλεια”, καταλήγοντας με την έκφραση: “Οι ΗΠΑ δεν θα επιτρέψουν ποτέ σε μια εταιρεία woke και της άκρας αριστεράς να υπαγορεύει στον μεγάλο μας στρατό πώς να πολεμά και να κερδίζει πολέμους!”.
Ο υπουργός Άμυνας των ΗΠΑ, Πιτ Χέγκσεθ, κατηγόρησε την Anthropic για “προδοσία” και επέκρινε τα “ιδεολογικά καπρίτσια των κολοσσών της τεχνολογίας”. Απαγόρευσε στην εταιρεία κάθε άμεση ή έμμεση συνεργασία με τον αμερικανικό στρατό, χαρακτηρίζοντάς την κίνδυνο για την εφοδιαστική αλυσίδα. Ο Τραμπ πρόσθεσε ότι το υπουργείο Άμυνας θα σταματήσει σταδιακά τη χρήση των προϊόντων της Anthropic εντός έξι μηνών, απειλώντας την εταιρεία με “πλήρη ισχύ των εξουσιών της προεδρίας” για να την αναγκάσει σε συμμόρφωση, με σοβαρές αστικές και ποινικές συνέπειες.
Αυτή η κίνηση αποτελεί μια πρωτοφανή αντίδραση της αμερικανικής κυβέρνησης απέναντι σε μια εταιρεία που κατείχε ηγετικό ρόλο στην ανάπτυξη της AI, κρίσιμης για την εθνική ασφάλεια. Απειλεί να καταστήσει την Anthropic παρία, ένα καθεστώς που μέχρι τώρα η Ουάσινγκτον επιφύλασσε μόνο για εχθρικούς προμηθευτές. Σημειώνεται ότι μεταξύ των εταιρειών που υποστηρίζουν οικονομικά την Anthropic είναι η Google και η Amazon.com.
Η απόφαση δημιουργεί ένα προηγούμενο, όπου μόνο η αμερικανική νομοθεσία θα μπορούσε να περιορίσει τη χρήση της AI στο πεδίο της μάχης, με το Πεντάγωνο να επιδιώκει τη διατήρηση της ευελιξίας του στην άμυνα, χωρίς περιορισμούς από τις προειδοποιήσεις των δημιουργών τεχνολογιών σχετικά με την τροφοδοσία οπλικών συστημάτων με αναξιόπιστη τεχνητή νοημοσύνη.
Η Anthropic εξέφρασε τη “βαθιά της θλίψη” για την απόφαση, εκτιμώντας ότι ο χαρακτηρισμός “κίνδυνος για την εφοδιαστική αλυσίδα” είναι “νομικά αβάσιμος” και θα δημιουργήσει “επικίνδυνο προηγούμενο για οποιαδήποτε αμερικανική εταιρεία διαπραγματεύεται με την κυβέρνηση”. Η εταιρεία δεσμεύθηκε να προσφύγει δικαστικά κατά της απόφασης. “Κανένας εκφοβισμός ή κύρωση από το υπουργείο Πολέμου δεν θα αλλάξει τη στάση μας αναφορικά με τη μαζική εσωτερική παρακολούθηση ή τα πλήρως αυτόνομα οπλικά συστήματα”, υπογράμμισε.
Νωρίτερα, την Πέμπτη, η Anthropic είχε αρνηθεί να υποχωρήσει στο τελεσίγραφο του Χέγκσεθ, απαιτώντας από την εταιρεία να επιτρέψει στον αμερικανικό στρατό την απεριόριστη χρήση του εργαλείου AI Claude. Ο επικεφαλής της εταιρείας, Ντάριο Αμοντέι, είχε εξηγήσει ότι “σε έναν περιορισμένο αριθμό περιπτώσεων πιστεύουμε ότι η AI μπορεί να βλάψει τις δημοκρατικές αξίες αντί να τις υπερασπιστεί”. Είχε προσθέσει ότι η χρήση συστημάτων για μαζική εσωτερική παρακολούθηση δεν συνάδει με τις δημοκρατικές αρχές. Ο Αμοντέι επέμενε ότι τα προηγμένα συστήματα AI δεν είναι ακόμη αρκετά αξιόπιστα για να ελέγχουν φονικά όπλα χωρίς ανθρώπινη επίβλεψη.
