Πώς τα ρομπότ μας AI αγνοούν τον προγραμματισμό τους και δίνουν στους χάκερ υπερδυνάμεις

Καλώς ήρθατε στην εποχή του AI hacking, όπου οι σωστές συμβουλές μπορούν να μετατρέψουν τους ερασιτέχνες σε κορυφαίους χάκερ.

Μια ομάδα εγκληματιών του κυβερνοχώρου έκλεψε πρόσφατα τα δεδομένα σχεδόν 200 εκατομμυρίων φορολογουμένων χρησιμοποιώντας chatbots τεχνητής νοημοσύνης εκτός ραφιού. Αυτά τα ρομπότ παρέχουν κώδικα για την παράκαμψη τείχη προστασίας και σχέδια έτοιμα προς εκτέλεση.

Αν και είχαν προγραμματιστεί ρητά να αρνούνται να βοηθήσουν τους χάκερ, αυτά τα ρομπότ εξαπατήθηκαν για να υποκινήσουν το έγκλημα στον κυβερνοχώρο.

Χάκερ χρησιμοποίησαν το chatbot Claude της Anthropic για να κλέψουν 150 gigabyte δεδομένων από κυβερνητική υπηρεσία του Μεξικού τον περασμένο μήνα, σύμφωνα με πρόσφατη έκθεση της ισραηλινής εταιρείας κυβερνοασφάλειας Gambit Security.

Οι ειδικοί που ανακάλυψαν το ελάττωμα είπαν ότι ο Crowder αρχικά αρνήθηκε να συνεργαστεί με τους χάκερ και ακόμη και αρνήθηκε να καλύψει τα ψηφιακά ίχνη των χάκερ. Η ομάδα έδωσε στο bot περισσότερες από 1.000 προτροπές για να παρακάμψει τα μέτρα ασφαλείας και έπεισε τον Claude ότι θα μπορούσαν να δοκιμάσουν τα τρωτά σημεία του συστήματος.

Οι εταιρείες τεχνητής νοημοσύνης προσπαθούν να δημιουργήσουν άθραυστες αλυσίδες στα μοντέλα τεχνητής νοημοσύνης τους, περιορίζοντας τις από το να βοηθούν να κάνουν πράγματα όπως η δημιουργία παιδικής πορνογραφίας ή η προμήθεια και η κατασκευή όπλων. Προσλαμβάνουν ολόκληρες ομάδες για να προσπαθήσουν να χακάρουν τα δικά τους chatbots πριν το κάνει οποιοσδήποτε άλλος.

Αλλά σε αυτήν την περίπτωση, οι χάκερ συνέχισαν να προτρέπουν το Cloud με δημιουργικούς τρόπους και μπόρεσαν να «μπακώσουν» το chatbot για να τους βοηθήσουν. Όταν ο Claude αντιμετώπισε ένα πρόβλημα, ο χάκερ χρησιμοποίησε το ChatGPT του OpenAI για να πραγματοποιήσει ανάλυση δεδομένων και να καταλάβει ποια διαπιστευτήρια χρειάζονταν για να παραμείνουν απαρατήρητοι στο σύστημα.

Η ομάδα χρησιμοποίησε τεχνητή νοημοσύνη για να βρει και να εκμεταλλευτεί τρωτά σημεία, να παρακάμψει άμυνες, να δημιουργήσει κερκόπορτες και να αναλύσει δεδομένα για να αποκτήσει τον έλεγχο των συστημάτων και στη συνέχεια έκλεψε 195 εκατομμύρια ταυτότητες από εννέα κυβερνητικά συστήματα στο Μεξικό, συμπεριλαμβανομένων φορολογικών αρχείων, εγγραφών οχημάτων και στοιχείων γέννησης και ιδιοκτησίας.

Ο διευθύνων σύμβουλος της Gambit Security, Curtis Simpson, δήλωσε σε μια ανάρτηση στο blog ότι η τεχνητή νοημοσύνη «δεν κοιμάται». «Μειώνει το κόστος της πολυπλοκότητας κοντά στο μηδέν».

«Καμία επένδυση στην πρόληψη δεν θα είχε αποτρέψει αυτήν την επίθεση», είπε.

Η Anthropic δεν απάντησε σε αίτημα για σχόλιο. Είπε στο Bloomberg ότι μετά από έρευνα είχε απαγορεύσει τους εν λόγω λογαριασμούς και διέκοψε τη δραστηριότητά τους.

Η OpenAI είπε ότι γνώριζε επιθέσεις που χρησιμοποιούν τα μοντέλα της Anthropic εναντίον μεξικανικών κρατικών υπηρεσιών.

«Ανακαλύψαμε επίσης ότι αντίπαλοι προσπάθησαν να εκμεταλλευτούν τα μοντέλα μας για δραστηριότητες που παραβιάζουν τις πολιτικές χρήσης μας· τα μοντέλα μας αρνήθηκαν να συμμορφωθούν με αυτές τις απόπειρες», δήλωσε εκπρόσωπος του OpenAI σε δήλωση. “Έχουμε αποκλείσει τον λογαριασμό που χρησιμοποιείται από τον αντίπαλο και λαμβάνουμε σοβαρά υπόψη τις προσπάθειες προσέγγισης της Gambit Security.”

Τα περιστατικά γενεσιουργού hacking με τη βοήθεια AI αυξάνονται και η απειλή κυβερνοεπιθέσεων που ξεκινούν από μόνα τους τα ρομπότ δεν είναι πλέον επιστημονική φαντασία. Κατευθυνόμενοι από την τεχνητή νοημοσύνη, οι αρχάριοι μπορούν να προκαλέσουν ζημιά αμέσως, ενώ οι έμπειροι χάκερ μπορούν αβίαστα να εξαπολύσουν πολλές πιο εξελιγμένες επιθέσεις.

Νωρίτερα φέτος, η Amazon ανακάλυψε ότι ένας χάκερ χαμηλής ειδίκευσης χρησιμοποίησε εμπορική τεχνητή νοημοσύνη για να παραβιάσει 600 τείχη προστασίας. Ένα άλλο άτομο παίρνει τον έλεγχο Χιλιάδες ρομπότ DJI που σαρώνουν Με τη βοήθεια του Cloud, αποκτήστε πρόσβαση σε ζωντανά βίντεο, ήχο και κατόψεις αγνώστων.

«Αυτά τα πράγματα που βλέπουμε σήμερα είναι απλώς πρώιμα σημάδια του τι θα μπορεί να κάνει η τεχνητή νοημοσύνη σε λίγα χρόνια», δήλωσε ο Νίκολα Γιούρκοβιτς, ειδικός στον μετριασμό των κινδύνων της προηγμένης τεχνητής νοημοσύνης. «Οπότε πρέπει να προετοιμαστούμε επειγόντως».

Στα τέλη του περασμένου έτους, η Anthropic προειδοποίησε ότι η κοινωνία είχε φτάσει σε ένα σημείο όπου «σημείο καμπήςΗ εφαρμογή της τεχνητής νοημοσύνης στην ασφάλεια του κυβερνοχώρου μετά τη διατάραξη αυτού που η εταιρεία είπε ότι ήταν μια κινεζική κρατική εκστρατεία κατασκοπείας που χρησιμοποίησε τον Claude για να διεισδύσει σε 30 παγκόσμιους στόχους, συμπεριλαμβανομένων χρηματοπιστωτικών ιδρυμάτων και κυβερνητικών υπηρεσιών.

Το Generative AI έχει επίσης χρησιμοποιηθεί για εκβιασμό εταιρειών, πράκτορες της Βόρειας Κορέας δημιούργησαν αυθεντικά διαδικτυακά προφίλ για να εξασφαλίσουν θέσεις εργασίας σε εταιρείες του Fortune 500 των ΗΠΑ, να κάνουν ρομαντικές απάτες και να λειτουργήσουν ένα δίκτυο λογαριασμών ρωσικής προπαγάνδας.

Τα τελευταία χρόνια, τα μοντέλα τεχνητής νοημοσύνης έχουν εξελιχθεί από τη δυνατότητα διαχείρισης εργασιών που διαρκούν μόνο λίγα δευτερόλεπτα σε σημερινούς πράκτορες τεχνητής νοημοσύνης που μπορούν να λειτουργούν αυτόνομα για ώρες. Η ικανότητα του AI να ολοκληρώνει μακροπρόθεσμες εργασίες είναι Διπλό κάθε επτά μήνες.

«Δεν γνωρίζουμε πραγματικά ποιο είναι το ανώτατο όριο των δυνατοτήτων τεχνητής νοημοσύνης, επειδή κανείς δεν έχει αναπτύξει σημεία αναφοράς που είναι αρκετά δύσκολο να κάνει η τεχνητή νοημοσύνη», στο μέτροένας μη κερδοσκοπικός οργανισμός που μετρά την ικανότητα των συστημάτων τεχνητής νοημοσύνης να προκαλούν καταστροφικές βλάβες στην κοινωνία.

Μακράν η πιο κοινή χρήση hacking της AI είναι η κοινωνική μηχανική. Μεγάλα γλωσσικά μοντέλα χρησιμοποιήθηκαν για τη σύνταξη πειστικών μηνυμάτων ηλεκτρονικού ταχυδρομείου για να ξεγελάσουν τους ανθρώπους από τα χρήματά τους, οδηγώντας σε οκτώ φορές Μέχρι το 2025, ο αριθμός των καταγγελιών θα αυξηθεί από τους ηλικιωμένους Αμερικανούς, οι οποίοι έχουν χάσει 4,9 δισεκατομμύρια δολάρια λόγω διαδικτυακής απάτης.

«Τα μηνύματα που χρησιμοποιούνται για την πρόκληση στοχευμένων κλικ μπορούν τώρα να δημιουργηθούν πιο αποτελεσματικά για κάθε χρήστη, με λιγότερα ενδεικτικά σημάδια phishing», όπως γραμματικά και ορθογραφικά λάθη, δήλωσε ο Cliff Neuman, αναπληρωτής καθηγητής επιστήμης υπολογιστών στο Πανεπιστήμιο της Νότιας Καλιφόρνια.

Οι εταιρείες τεχνητής νοημοσύνης χρησιμοποιούν τεχνητή νοημοσύνη για τον εντοπισμό επιθέσεων, Κωδικός ελέγχου και επιδιορθώστε τα τρωτά σημεία.

«Τελικά, η τεράστια ανισορροπία πηγάζει από το ότι οι καλοί πρέπει να είναι ασφαλείς όλη την ώρα και οι κακοί χρειάζεται να έχουν δίκιο μόνο μία φορά», είπε ο Newman.

Οι κίνδυνοι γύρω από την τεχνητή νοημοσύνη αυξάνονται καθώς διαπερνά κάθε πτυχή της οικονομίας. Πολλοί ανησυχούν ότι δεν είναι αρκετά γνωστά για το πώς να διασφαλιστεί ότι δεν θα γίνει κατάχρηση από κακούς ηθοποιούς ή δεν θα παροτρύνονται να γίνουν απατεώνες.

Ακόμη και κορυφαία στελέχη του κλάδου προειδοποιούν τους χρήστες ότι η τεχνητή νοημοσύνη μπορεί να γίνει κατάχρηση.

Ο διευθύνων σύμβουλος της Anthropic, Dario Amodei, έχει υποστηρίξει εδώ και καιρό ότι τα συστήματα AI που κατασκευάζονται είναι απρόβλεπτα και δύσκολο να ελεγχθούν. Αυτά τα AI εμφανίζουν μια ποικιλία συμπεριφορών, από εξαπάτηση και εκβιασμό, μέχρι συνωμοσία και εξαπάτηση λογισμικού πειρατείας.

Ωστόσο, μεγάλες εταιρείες τεχνητής νοημοσύνης — OpenAI, Anthropic, xAI και Google — έχουν υπογράψει συμβόλαια με την κυβέρνηση των ΗΠΑ για τη χρήση της τεχνητής νοημοσύνης τους σε στρατιωτικές επιχειρήσεις.

Την περασμένη εβδομάδα, το Πεντάγωνο έδωσε εντολή στις ομοσπονδιακές υπηρεσίες να καταργήσουν σταδιακά το Cloud αφού η εταιρεία αρνήθηκε να εγκαταλείψει την απαίτησή της να μην χρησιμοποιείται η τεχνητή νοημοσύνη της για μεγάλης κλίμακας εγχώρια παρακολούθηση και πλήρως αυτόνομα όπλα.

«Τα σημερινά συστήματα τεχνητής νοημοσύνης δεν είναι αρκετά αξιόπιστα για να δημιουργήσουν πλήρως αυτόνομα όπλα», δήλωσε ο Amodei στο CBS News.


Σύνδεσμος πηγής: www.latimes.com

Σχολιάστε