Για πρώτη φορά, η Google λέει ότι εντόπισε και σταμάτησε μια ευπάθεια zero-day που αναπτύχθηκε χρησιμοποιώντας τεχνητή νοημοσύνη. Σύμφωνα με αναφορά από Google Threat Intelligence Suite (GTIG), «εξέχοντες φορείς απειλών για το έγκλημα στον κυβερνοχώρο» σχεδίαζαν να χρησιμοποιήσουν την ευπάθεια σε ένα «γεγονός μαζικής εκμετάλλευσης» που θα τους επέτρεπε να παρακάμψουν τον έλεγχο ταυτότητας δύο παραγόντων σε ένα ανώνυμο «εργαλείο διαχείρισης συστήματος ανοιχτού κώδικα, βασισμένο στο διαδίκτυο».
Οι ερευνητές της Google βρήκαν υποδείξεις στο σενάριο Python που χρησιμοποιείται για το exploit που προτείνουν βοήθεια από το AI, όπως μια «παραισθησιολογική βαθμολογία CVSS» και μια μορφή «δομημένου σχολικού βιβλίου» σύμφωνα με τα δεδομένα εκπαίδευσης LLM. Αυτό το exploit εκμεταλλεύεται ένα “σημασιολογικό ελάττωμα υψηλού επιπέδου όπου ο προγραμματιστής έχει κωδικοποιήσει σκληρά μια υπόθεση εμπιστοσύνης” στο σύστημα ελέγχου ταυτότητας δύο παραγόντων της πλατφόρμας. Αυτό έρχεται μετά από εβδομάδες ανησυχίας σχετικά με τις δυνατότητες των μοντέλων τεχνητής νοημοσύνης που εστιάζουν στην κυβερνοασφάλεια, όπως το Anthropic’s Mythos και μια ευπάθεια που αποκαλύφθηκε πρόσφατα στο Linux που ανακαλύφθηκε με τη βοήθεια της AI.
Αυτή είναι η πρώτη φορά που η Google ανακάλυψε στοιχεία για εμπλοκή της τεχνητής νοημοσύνης σε μια επίθεση όπως αυτή, αν και οι ερευνητές της Google σημείωσαν ότι «δεν πιστεύουν ότι χρησιμοποιήθηκε το Gemini». Η Google λέει ότι μπόρεσε να «απενεργοποιήσει» τη συγκεκριμένη εκμετάλλευση, αλλά λέει επίσης ότι οι χάκερ χρησιμοποιούν όλο και περισσότερο την τεχνητή νοημοσύνη για να βρουν και να εκμεταλλευτούν τα τρωτά σημεία. Η έκθεση επισημαίνει επίσης την τεχνητή νοημοσύνη ως στόχο για τους επιτιθέμενους, λέγοντας: «Το GTIG σημειώνει ότι οι αντίπαλοι στοχεύουν όλο και περισσότερο τα ενσωματωμένα στοιχεία που δίνουν τη χρησιμότητά τους στα συστήματα AI, όπως αυτόνομες δεξιότητες και συνδέσεις δεδομένων τρίτων».
Η αναφορά της Google περιγράφει επίσης πώς οι χάκερ χρησιμοποιούν το “jailbreaking βάσει χαρακτήρων” για να κάνουν το AI να βρει τρωτά σημεία για αυτούς, όπως ένα παράδειγμα που κατευθύνει το AI να προσποιηθεί ότι είναι ειδικός σε θέματα ασφάλειας. Οι χάκερ τροφοδοτούν επίσης μοντέλα τεχνητής νοημοσύνης με ολόκληρα αποθετήρια δεδομένων ευπάθειας και χρησιμοποιούν το OpenClaw με τρόπους που δείχνουν «ενδιαφέρον για τη βελτιστοποίηση των ωφέλιμων φορτίων που βασίζονται σε AI υπό ελεγχόμενες ρυθμίσεις για να αυξήσουν την αξιοπιστία της εκμετάλλευσης πριν από την ανάπτυξη».
(Ετικέτες για μετάφραση)AI










