Τη Δευτέρα, η Anthropic κατέθεσε μήνυση κατά του Υπουργείου Άμυνας για τον χαρακτηρισμό του ως κινδύνου της εφοδιαστικής αλυσίδας. Ώρες αργότερα, σχεδόν 40 υπάλληλοι της OpenAI και της Google – συμπεριλαμβανομένου του Jeff Dean, του επικεφαλής επιστήμονα της Google και προέδρου της Gemini – κατέθεσαν μια φιλική σύντομη ενημέρωση για την υποστήριξη της αγωγής της Anthropic, περιγράφοντας τις ανησυχίες τους για την απόφαση της κυβέρνησης Τραμπ και τους κινδύνους και τις επιπτώσεις της τεχνολογίας.
Η είδηση έρχεται μετά από μερικές δραματικές εβδομάδες για την Anthropic, στην οποία η κυβέρνηση Τραμπ χαρακτήρισε την εταιρεία ως κίνδυνο της εφοδιαστικής αλυσίδας – χαρακτηρισμός που προορίζεται συνήθως για ξένες εταιρείες που η κυβέρνηση θεωρεί πιθανό κίνδυνο εθνικής ασφάλειας κατά κάποιο τρόπο – αφού η Anthropic στάθηκε σταθερή σε δύο κόκκινες γραμμές σχετικά με τις αποδεκτές περιπτώσεις χρήσης για στρατιωτική χρήση της τεχνολογίας της: εγχώρια μαζική παρακολούθηση και πλήρως αυτόνομα συστήματα AI χωρίς οποιαδήποτε ανθρώπινη επέμβαση. Οι διαπραγματεύσεις κατέρρευσαν και ακολούθησαν δημόσιες προσβολές και άλλες εταιρείες τεχνητής νοημοσύνης παρενέβησαν για να υπογράψουν συμβάσεις που επιτρέπουν «κάθε νόμιμη χρήση» της τεχνολογίας τους.
Όχι μόνο ο χαρακτηρισμός κινδύνου της εφοδιαστικής αλυσίδας εμποδίζει την Anthropic να εργάζεται σε στρατιωτικές συμβάσεις, αλλά επίσης βάζει σε μαύρη λίστα άλλες εταιρείες εάν χρησιμοποιούν προϊόντα Anthropic στη γραμμή εργασίας τους για το Πεντάγωνο, αναγκάζοντάς τες να ξεριζώσουν τον Claude εάν θέλουν να διατηρήσουν τα προσοδοφόρα συμβόλαιά τους. Ωστόσο, δεδομένου ότι το πρώτο μοντέλο επέτρεπε κρυφές πληροφορίες, τα εργαλεία Anthropic είναι ήδη βαθιά ενσωματωμένα στο έργο του Πενταγώνου – τόσο πολύ που λίγες ώρες αφότου ο υπουργός Άμυνας Pete Hegseth ανακοίνωσε τον χαρακτηρισμό, ο αμερικανικός στρατός φέρεται να χρησιμοποίησε τον Claude στην εκστρατεία που σκότωσε τον Ιρανό ηγέτη Αγιατολάχ Αλί Χαμενεΐ.
Η σύντομη έκθεση του amicus curiae επιδιώκει να επισημάνει ότι ο χαρακτηρισμός κινδύνου της εφοδιαστικής αλυσίδας της Anthropic “είναι ακατάλληλα αντίποινα που βλάπτουν το δημόσιο συμφέρον” και ότι οι ανησυχίες πίσω από τις κόκκινες γραμμές της Anthropic είναι “πραγματικές και απαιτούν απάντηση”. Η έκθεση σημειώνει επίσης ότι οι δύο κόκκινες γραμμές που εντόπισε η Anthropic αξίζουν επανεξέτασης, δηλώνοντας ότι «η μαζική εγχώρια παρακολούθηση που τροφοδοτείται από τεχνητή νοημοσύνη εγκυμονεί μεγάλους κινδύνους για τη δημοκρατική διακυβέρνηση – ακόμη και σε υπεύθυνα χέρια» και ότι «τα πλήρως αυτόνομα θανατηφόρα οπλικά συστήματα αντιπροσωπεύουν κινδύνους που πρέπει επίσης να αντιμετωπιστούν».
Η ομάδα πίσω από το amicus brief περιέγραψε τους εαυτούς τους ως «μηχανικούς, ερευνητές, επιστήμονες και άλλους επαγγελματίες που εργάζονται στα συνοριακά εργαστήρια τεχνητής νοημοσύνης της Αμερικής».
«Χτίζουμε, εκπαιδεύουμε και μελετάμε συστήματα τεχνητής νοημοσύνης μεγάλης κλίμακας που εξυπηρετούν ένα ευρύ φάσμα χρηστών και αναπτύξεων, συμπεριλαμβανομένων περιοχών που σχετίζονται με την εθνική ασφάλεια, την επιβολή του νόμου και τις στρατιωτικές επιχειρήσεις», έγραψε η ομάδα. «Παρέχουμε αυτήν τη σύντομη ενημέρωση όχι ως εκπρόσωποι για οποιαδήποτε εταιρεία, αλλά με τις ατομικές μας ικανότητες ως επαγγελματίες με γνώση από πρώτο χέρι για το τι μπορούν και τι δεν μπορούν να κάνουν αυτά τα συστήματα και τι διακυβεύεται όταν η ανάπτυξή τους υπερβαίνει τα νομικά και ηθικά πλαίσια που έχουν σχεδιαστεί για να τα διέπουν».
Στο μέτωπο της εγχώριας μαζικής παρακολούθησης, η ομάδα είπε ότι ενώ υπάρχουν δεδομένα για Αμερικανούς πολίτες παντού με τη μορφή καμερών παρακολούθησης, δεδομένων γεωγραφικής θέσης, αναρτήσεων στα μέσα κοινωνικής δικτύωσης, οικονομικών συναλλαγών και πολλά άλλα, «αυτό που δεν υπάρχει ακόμη είναι ένα επίπεδο AI που μετατρέπει αυτό το εκτεταμένο, κατακερματισμένο τοπίο δεδομένων σε μια ενοποιημένη συσκευή παρακολούθησης σε πραγματικό χρόνο». Αυτές οι ροές δεδομένων είναι προς το παρόν απομονωμένες, αλλά εάν χρησιμοποιηθεί AI για τη σύνδεσή τους, θα μπορούσε να συνδυάσει «δεδομένα αναγνώρισης προσώπου με ιστορικό τοποθεσίας, ιστορικά συναλλαγών, γραφήματα κοινωνικής δικτύωσης και μοτίβα συμπεριφοράς σε εκατοντάδες εκατομμύρια ανθρώπους ταυτόχρονα», έγραψαν.
Όσον αφορά συγκεκριμένα θανατηφόρα αυτόνομα όπλα, η ομάδα είπε ότι μπορεί να είναι αναξιόπιστα σε νέες ή ασαφείς συνθήκες που δεν ταιριάζουν με το περιβάλλον στο οποίο εκπαιδεύτηκαν – που σημαίνει ότι «δεν μπορούν να εμπιστευτούν τους στόχους για τον εντοπισμό στόχων με πλήρη ακρίβεια, ούτε μπορούν να κάνουν τους λεπτούς συμβιβασμούς μεταξύ της επίτευξης ενός στόχου και των παρενεργειών που μπορεί ένας άνθρωπος». Επιπλέον, έγραψε η ομάδα, η ικανότητα των θανατηφόρων αυτόνομων οπλικών συστημάτων να έχουν ψευδαισθήσεις σημαίνει ότι είναι σημαντικό για τους ανθρώπους να συμμετέχουν στη διαδικασία λήψης αποφάσεων «πριν από την εκτόξευση ενός θανατηφόρου πυρομαχικού σε ανθρώπινο στόχο» – ειδικά επειδή η αλυσίδα της λογικής του συστήματος είναι συχνά μη διαθέσιμη στους χειριστές και ασαφής ακόμη και στους προγραμματιστές συστημάτων.
«Είμαστε διαφορετικοί στις πολιτικές και τις φιλοσοφίες μας, αλλά ενωμένοι στην πεποίθηση ότι τα σημερινά συνοριακά συστήματα τεχνητής νοημοσύνης ενέχουν κινδύνους όταν αναπτύσσονται για να επιτρέψουν την εγχώρια μαζική επιτήρηση ή τη λειτουργία αυτόνομων θανατηφόρων οπλικών συστημάτων χωρίς ανθρώπινη επίβλεψη και ότι αυτοί οι κίνδυνοι απαιτούν κάποιου είδους προστατευτικά κιγκλιδώματα, είτε μέσω τεχνικών διασφαλίσεων είτε μέσω περιορισμών χρήσης», έγραψε η ομάδα πίσω από το brief.
Σύνδεσμος πηγής: www.theverge.com