Ένα απατεώνα AI οδήγησε σε σοβαρό περιστατικό ασφαλείας στο Meta

Για περίπου δύο ώρες την περασμένη εβδομάδα, οι υπάλληλοι της Meta απέκτησαν μη εξουσιοδοτημένη πρόσβαση σε δεδομένα εταιρείας και χρηστών χάρη σε έναν πράκτορα AI που παρείχε σε έναν υπάλληλο ανακριβείς τεχνικές συμβουλές, όπως είχε αναφερθεί προηγουμένως από Πληροφορίες. Η εκπρόσωπος του Meta, Τρέισι Κλέιτον, δήλωσε σε δήλωση προς Ακρη Αυτό το «δεδομένα χρήστη δεν υποβλήθηκε σε λάθος χειρισμό» κατά τη διάρκεια του συμβάντος.

Ένας μηχανικός της Meta χρησιμοποιούσε έναν εσωτερικό πράκτορα τεχνητής νοημοσύνης, τον οποίο ο Κλέιτον περιέγραψε ως «παρόμοιο στη φύση του με το OpenClaw σε ένα ασφαλές περιβάλλον ανάπτυξης», για να αναλύσει μια τεχνική ερώτηση που δημοσιεύτηκε από άλλον υπάλληλο σε ένα εσωτερικό φόρουμ εταιρείας. Αλλά ο πράκτορας απάντησε επίσης δημόσια ανεξάρτητα στην ερώτηση αφού την ανέλυσε, χωρίς να λάβει πρώτα τη συγκατάθεσή του. Η απάντηση προοριζόταν μόνο για να εμφανιστεί στον αιτούντα υπάλληλο και δεν δημοσιεύτηκε δημόσια.

Στη συνέχεια, ένας υπάλληλος ενήργησε σύμφωνα με τις συμβουλές της AI, η οποία «παρείχε ανακριβείς πληροφορίες» που οδήγησαν σε περιστατικό ασφαλείας με επίπεδο «SEV1», τη δεύτερη υψηλότερη βαθμολογία σοβαρότητας που χρησιμοποιεί η Meta. Το περιστατικό επέτρεψε προσωρινά στους υπαλλήλους να έχουν πρόσβαση σε ευαίσθητα δεδομένα που δεν τους επιτρεπόταν να δουν, αλλά το πρόβλημα έκτοτε επιλύθηκε.

Σύμφωνα με τον Clayton, ο εν λόγω πράκτορας AI δεν έκανε καμία τεχνική ενέργεια από μόνος του, εκτός από την ανάρτηση ανακριβών τεχνικών συμβουλών, κάτι που θα έκανε και ένας άνθρωπος. Ωστόσο, ο άνθρωπος μπορεί να έχει διεξαγάγει περισσότερες δοκιμές και να έχει κάνει μια πιο ολοκληρωμένη κρίση πριν κοινοποιήσει τις πληροφορίες – και δεν είναι σαφές εάν ο υπάλληλος που ώθησε αρχικά την απάντηση σχεδίαζε να τη δημοσιεύσει δημόσια.

“Ο υπάλληλος που αλληλεπιδρούσε με το σύστημα γνώριζε πλήρως ότι επικοινωνούσε με ένα αυτοματοποιημένο bot. Αυτό υποδεικνύεται από τη δήλωση αποποίησης ευθύνης στο υποσέλιδο και από την απάντηση του ίδιου του υπαλλήλου σε αυτό το νήμα”, σχολίασε ο Clayton. Ακρη. “Ο πράκτορας δεν έκανε καμία ενέργεια εκτός από το να απαντήσει σε μια ερώτηση. Εάν ο μηχανικός που ενήργησε σε αυτό το γνώριζε καλύτερα ή έκανε άλλους ελέγχους, αυτό θα μπορούσε να είχε αποφευχθεί.”

Τον περασμένο μήνα, ένας πράκτορας τεχνητής νοημοσύνης από την πλατφόρμα ανοιχτού κώδικα OpenClaw έγινε ακόμη πιο απαίσιος στο Meta όταν μια υπάλληλος του ζήτησε να ταξινομήσει τα email στα εισερχόμενά της και διέγραψε τα email χωρίς άδεια. Η όλη ιδέα πίσω από πράκτορες όπως το OpenClaw είναι ότι μπορούν να αναλάβουν δράση οι ίδιοι, αλλά όπως κάθε άλλο μοντέλο τεχνητής νοημοσύνης, δεν ερμηνεύουν πάντα σωστά τις προτροπές και τις οδηγίες ή δεν παρέχουν ακριβείς απαντήσεις, γεγονός που το προσωπικό της Meta έχει τώρα ανακαλύψει δύο φορές.


Σύνδεσμος πηγής: www.theverge.com

Σχολιάστε