Οι μέθοδοι του Meta για τον εντοπισμό των deepfakes «δεν είναι αρκετά ισχυρές ή περιεκτικές» για να αντιμετωπίσουν πόσο γρήγορα εξαπλώνεται η παραπληροφόρηση κατά τη διάρκεια ένοπλων συγκρούσεων, όπως ο πόλεμος στο Ιράν. Αυτό σύμφωνα με το Εποπτικό Συμβούλιο της Meta – ένα σχεδόν ανεξάρτητο όργανο που καθοδηγεί τις πρακτικές ελέγχου περιεχομένου της εταιρείας – το οποίο καλεί τώρα τη Meta να αναθεωρήσει τον τρόπο εμφάνισης και κατηγοριοποίησης του περιεχομένου που δημιουργείται από AI σε Facebook, Instagram και Threads.
Η έκκληση για δράση προέρχεται από μια έρευνα για ένα ψεύτικο βίντεο τεχνητής νοημοσύνης με υποτιθέμενες ζημιές σε κτίρια στο Ισραήλ που κοινοποιήθηκε στις κοινωνικές πλατφόρμες Meta πέρυσι, αλλά το συμβούλιο λέει ότι οι συστάσεις του είναι ιδιαίτερα σημαντικές τώρα, δεδομένης της «μαζικής στρατιωτικής κλιμάκωσης» σε όλη τη Μέση Ανατολή αυτή την εβδομάδα. Το διοικητικό συμβούλιο αναφέρει στην ανακοίνωσή του ότι η πρόσβαση σε ακριβείς και αξιόπιστες πληροφορίες είναι ζωτικής σημασίας για την ασφάλεια των ανθρώπων εν μέσω των αυξανόμενων κινδύνων από τη χρήση εργαλείων τεχνητής νοημοσύνης για τη διάδοση παραπληροφόρησης.
«Τα ευρήματα του διοικητικού συμβουλίου υπογραμμίζουν ότι το τρέχον σύστημα της Meta για τη σωστή επισήμανση περιεχομένου τεχνητής νοημοσύνης εξαρτάται υπερβολικά από την αυτο-αποκάλυψη της χρήσης τεχνητής νοημοσύνης και την κλιμακούμενη αναθεώρηση και δεν ανταποκρίνεται στις πραγματικότητες του σημερινού διαδικτυακού περιβάλλοντος», δήλωσε το Εποπτικό Συμβούλιο της Meta. «Η υπόθεση υπογραμμίζει επίσης τις προκλήσεις της διάδοσης τέτοιου περιεχομένου σε πλατφόρμες, καθώς το περιεχόμενο φαίνεται να προέρχεται από το TikTok πριν εμφανιστεί στο Facebook, το Instagram και το X».
Τα προτεινόμενα βήματα του διοικητικού συμβουλίου περιλαμβάνουν την ώθηση της Meta να βελτιώσει τους υφιστάμενους κανόνες της για την παραπληροφόρηση για την αντιμετώπιση παραπλανητικών deepfakes και τη δημιουργία ενός νέου, ξεχωριστού κοινοτικού προτύπου για περιεχόμενο που δημιουργείται από AI. Η Meta απαιτείται επίσης να αναπτύξει καλύτερα εργαλεία ανίχνευσης τεχνητής νοημοσύνης, να είναι διαφανής σχετικά με τις κυρώσεις για παραβιάσεις πολιτικής τεχνητής νοημοσύνης και να επεκτείνει τις προσπάθειες επισήμανσης περιεχομένου AI. Το τελευταίο περιλαμβάνει τη διασφάλιση ότι οι ετικέτες «υψηλού κινδύνου AI» προστίθενται συχνά σε συνθετικές εικόνες και βίντεο και τη βελτίωση της πιστοποίησης C2PA (γνωστή και ως διαπιστευτήρια περιεχομένου), ώστε οι πληροφορίες σχετικά με το περιεχόμενο που δημιουργείται από AI να είναι «σαφώς ορατές και προσβάσιμες στους χρήστες».
Σύνδεσμος πηγής: www.theverge.com