Οι Δημοκρατικοί της Γερουσίας προσπαθούν να «κωδικοποιήσουν» ανθρωπολογικές κόκκινες γραμμές για τα αυτόνομα όπλα και τη μαζική επιτήρηση

Η ανθρωπιστική μάχη με το Πεντάγωνο επεκτείνεται και στο Κογκρέσο. Ο γερουσιαστής Adam Schiff (D-CA) εργάζεται σε ένα νέο νομοσχέδιο για να «κωδικοποιήσει» τις κόκκινες γραμμές της ανθρωπολογίας και να διασφαλίσει ότι οι άνθρωποι λαμβάνουν τις τελικές αποφάσεις σε θέματα ζωής και θανάτου και η γερουσιαστής Elissa Slotkin (D-MI) εισήγαγε πρόσφατα ένα νομοσχέδιο για τον περιορισμό της ικανότητας του Υπουργείου Άμυνας να χρησιμοποιεί τεχνητή νοημοσύνη για μαζική παρακολούθηση Αμερικανών.

Η κυβέρνηση Τραμπ έθεσε στη μαύρη λίστα την Anthropic νωρίτερα αυτό το μήνα, αφού έθεσε περιορισμούς στον τρόπο με τον οποίο ο στρατός θα μπορούσε να χρησιμοποιήσει τα μοντέλα τεχνητής νοημοσύνης του, χαρακτηρίζοντάς το κίνδυνο της αλυσίδας εφοδιασμού. Η Anthropic κατέθεσε μήνυση κατηγορώντας την κυβέρνηση για παραβίαση των συνταγματικών της δικαιωμάτων. Επιμένει ότι το Πεντάγωνο αποφεύγει να χρησιμοποιεί τα προϊόντα του για πλήρως αυτόνομα όπλα και μαζική εγχώρια επιτήρηση, αντιστεκόμενος σε μια συμφωνία που υπέγραψε ο σημαντικός ανταγωνιστής OpenAI. Η Anthropic περιμένει να ακούσει εάν το δικαστήριο θα μπλοκάρει την απόφαση της διοίκησης ως κίνδυνος για την εφοδιαστική αλυσίδα.

«Ανησυχούσα όταν είδα το Πεντάγωνο να στοχεύει τους Anthropics, επειδή οι Anthropics απλώς προσπαθούσαν να επιμείνουν σε πολιτικές με τις οποίες συμφωνεί η συντριπτική πλειοψηφία του αμερικανικού λαού», είπε ο Schiff. Ακρη Σε τηλεφωνική συνέντευξη την περασμένη εβδομάδα. “Η ιδέα ότι στη συνέχεια θα προσπαθήσουν να στρίψουν την εταιρεία και να τη σκοτώσουν και να σκοτώσουν έναν από τους κορυφαίους ηγέτες στον τομέα της τεχνητής νοημοσύνης, είναι μια εχθρική και δικτατορική πράξη. Θα εμπόδιζε την ηγεσία της Αμερικής στην τεχνητή νοημοσύνη και η Anthropic είναι μια από τις καλύτερες από όλες.”

Το γραφείο του Σιφ βρίσκεται ακόμη στη διαδικασία σύνταξης της νομοθεσίας, αλλά είπε ότι στόχος είναι να διασφαλιστεί ότι η τεχνητή νοημοσύνη δεν χρησιμοποιείται για «ορισμένους παράνομους σκοπούς». Ο Slotkin εισήγαγε πρόσφατα ένα παρόμοιο νομοσχέδιο την περασμένη εβδομάδα που ονομάζεται νόμος AI ​​Guardrails, για να ενισχύσει την προστασία από την εγχώρια μαζική επιτήρηση και τη χρήση θανατηφόρων αυτόνομων όπλων χωρίς ανθρώπινη παρέμβαση. Δεν είναι ακόμη σαφές πώς το νομοσχέδιο του Schiff θα διαφέρει ή θα ευθυγραμμιστεί σε βασικά σημεία, αν και καλύπτει παρόμοια θέματα. Ο εκπρόσωπος του Σιφ, Ρόμπι Ρόμπλες Πέρεθ, είπε ότι το γραφείο του συνεχίζει να συνομιλεί με ενδιαφερόμενα μέρη και ηγέτες του κλάδου πριν οριστικοποιήσει το νομοσχέδιο. Το νομοσχέδιο του Slotkin περιορίζει τη δυνατότητα του Υπουργείου Άμυνας να χρησιμοποιεί τεχνητή νοημοσύνη για να πυροδοτήσει ένα πυρηνικό όπλο ή να παρακολουθεί άτομα ή ομάδες στις Ηνωμένες Πολιτείες, αλλά διευκρινίζει επίσης πώς ο Υπουργός Άμυνας μπορεί να ειδοποιήσει το Κογκρέσο εάν υπάρχουν «έκτακτες περιστάσεις» που απαιτούν τη χρήση AI για την ανάπτυξη θανατηφόρων αυτόνομων όπλων.

Στο νομοσχέδιο που συντάσσει ο Σιφ, οι λεπτομέρειες σχετικά με το τι συνιστά ανεξάρτητο όπλο ή εγχώρια παρακολούθηση εξακολουθούν να αποτελούν θέμα συζήτησης, αλλά είπε ότι εξετάζουν επίσης τα υπάρχοντα πλαίσια από την κυβέρνηση Μπάιντεν. «Δεν έχουμε επιλύσει ακόμη όλα αυτά τα ερωτήματα, συμπεριλαμβανομένου του τρόπου με τον οποίο αυτή η γλώσσα εφαρμόζεται σε όσους δεν είναι πολίτες, αλλά σε άτομα που βρίσκονται νόμιμα στη χώρα και αξίζουν προστασία», είπε ο Σιφ. «Και μετά, για το ζήτημα των ανθρωπίνων δικαιωμάτων, μπορεί να πάει και πέρα ​​από αυτό».

«Δεν θέλουμε να εκχωρήσουμε αυτού του είδους την ευθύνη για τη ζωή και τον θάνατο σε έναν αλγόριθμο».

Μία από τις αρχές που καθοδηγούν αυτή την προσπάθεια είναι η ιδέα ενός ανθρώπου στο βρόχο. «Όταν η τεχνολογία έχει τη δύναμη να αφαιρέσει ανθρώπινη ζωή, πρέπει να υπάρχει ένας άνθρωπος χειριστής στην αλυσίδα διοίκησης», είπε ο Σιφ. «Δεν θέλουμε να εκχωρήσουμε αυτού του είδους την ευθύνη για τη ζωή και τον θάνατο σε έναν αλγόριθμο».

Αυτό όμως δεν σημαίνει ότι δεν υπάρχει κανένας ρόλος για την τεχνητή νοημοσύνη στο πεδίο της μάχης. «Υπάρχουν σίγουρα περιπτώσεις όπου, επειδή η τεχνητή νοημοσύνη μπορεί να λειτουργήσει γρηγορότερα από τους ανθρώπους, θέλετε η τεχνητή νοημοσύνη να είναι σε θέση να κατευθύνει πληροφορίες και να τις καθοδηγεί σε ανθρώπινους χειριστές που είτε πρέπει να λάβουν μέτρα για να υπερασπιστούν τη χώρα είτε που πρέπει να προσαρμοστούν υπό το φως του τι μπορούν να δουν σε πραγματικό χρόνο στο πεδίο της μάχης», είπε ο Σιφ. “Οπότε οι εφαρμογές είναι πολύ σημαντικές. Μπορούν να είναι πολύ χρήσιμες από την άποψη της εθνικής ασφάλειας και άμυνας. Αλλά μπορεί επίσης να σημαίνουν ζωή ή θάνατο. Μπορεί να σημαίνουν διάκριση μεταξύ ενός πολιτικού στόχου και ενός στρατιωτικού στόχου ή να κάνουν λάθος αυτά τα πράγματα.”

Με τις Δημοκρατικές μειονότητες και στις δύο βουλές, η βραχυπρόθεσμη επιτυχία του νομοσχεδίου μπορεί να εξαρτηθεί από την επιθυμία των Ρεπουμπλικανών να θεωρηθούν επικριτές της κυβέρνησης. Καθώς πλησιάζουν οι ενδιάμεσες εκλογές, θα είναι δύσκολο μέχρι το τέλος του έτους να ψηφιστεί νέα νομοθεσία, αν και η ισορροπία δυνάμεων στο Κογκρέσο μπορεί να αλλάξει εάν οι Δημοκρατικοί ανακτήσουν τη μία ή και τις δύο βουλές. Θα μπορούσε να χρειαστούν τουλάχιστον άλλες δύο εβδομάδες για να αποκαλυφθεί η πρόταση, αλλά ο Σιφ εξετάζει νομοθετικά εργαλεία όπως ο Νόμος περί Εθνικής Άδειας Άμυνας (NDAA) για να προχωρήσει.

«Υπάρχει σίγουρα δικομματική υποστήριξη στην κοινή γνώμη για αυτούς τους τύπους περιορισμών», είπε ο Σιφ. “Όπως πάντα, αντιμετωπίζετε το πρόβλημα όταν λαμβάνετε μέτρα για να αποτρέψετε κάθε είδους διοικητική κατάχρηση που εγείρει ζητήματα με ορισμένους από τους συναδέλφους μου σχετικά με το εάν θα μπορούσε να εκληφθεί ως έμμεση κριτική στη διοίκηση. Επομένως, θα πρέπει να το αντιμετωπίσουμε, αλλά ελπίζω ότι μπορούμε να το κάνουμε δικομματικό.”

Από τότε που η Anthropic έδωσε τη μάχη της με το Πεντάγωνο, η OpenAI έσπευσε να υπερασπιστεί τους λόγους της υπογραφής όρων που συνάντησαν την αντίθεση του κοινού. Παρόλο που η OpenAI είπε ότι θα επιμείνει στους ίδιους όρους, ο Σιφ είπε ότι δεν θα έπρεπε να εμπιστευτεί αυτή την εμπιστοσύνη στο Πεντάγωνο ή σε οποιοδήποτε στέλεχος. «Ειλικρινά, θα ήμουν πιο σίγουρος, αν αυτές ήταν νομικές απαιτήσεις, από το να βασιστώ στη νομιμότητα του Πενταγώνου ή στη λέξη του CEO της AI», είπε.

Ακολουθήστε θέματα και συγγραφείς Από αυτήν την ιστορία για να δείτε περισσότερα παρόμοια στην εξατομικευμένη ροή της αρχικής σας σελίδας και να λαμβάνετε ενημερώσεις μέσω email.



Σύνδεσμος πηγής: www.theverge.com