Σε συναγερμό οι ΗΠΑ μετά από fake τηλεφώνημα Μπάιντεν μέσω AI

Διαβάζεται σε 5'
Σε συναγερμό οι ΗΠΑ μετά από fake τηλεφώνημα Μπάιντεν μέσω AI
Τζο Μπάιντεν AP Photo/Carolyn Kaster

Θορυβημένο το εκλογικό σώμα στις ΗΠΑ μετά το παραποιημένο ηχητικό μήνυμα με τη φωνή του Τζο Μπάιντεν που καλούσε σε αποχή από τις εκλογές στο Νιου Χάμσαϊρ

Κανένα άλλο πολιτικό deepfake δεν έχει θορυβήσει τους ειδικούς που ασχολούνται με την παραπληροφόρηση σε παγκόσμιο επίπεδο τόσο, όσο το παραποιημένο ηχητικό μήνυμα του προέδρου των ΗΠΑ, Τζο Μπάιντεν, που άρχισε να κυκλοφορεί το Σαββατοκύριακο.

Στο τηλεφωνικό μήνυμα, μια φωνή που είχε υποστεί επεξεργασία ώστε να ακούγεται ακριβώς όπως ο Μπάιντεν, προέτρεπε τους ψηφοφόρους στο Νιου Χάμσαϊρ να μην ψηφίσουν στις προκριματικές εκλογές των Δημοκρατικών, σήμερα Τρίτη (23/01). “Κρατήστε την ψήφο σας για τις εκλογές του Νοεμβρίου”, έλεγε το τηλεφωνικό μήνυμα. Χρησιμοποίησε μάλιστα μια από τις χαρακτηριστικές φράσεις του Μπάιντεν: “What a bunch of malarkey.”

Υπό εισαγγελική διερεύνηση το ηχητικό Μπάιντεν

Μέχρι στιγμής, δεν είναι σαφές το πώς ακριβώς δημιουργήθηκε το μήνυμα με τη φωνή του Μπάιντεν ενώ για την ουσία του όλου θέματος, ο πρόεδρος Μπάιντεν δεν είναι στο ψηφοδέλτιο της κούρσας του Νιου Χάμσαϊρ και η ψήφος στις προκριματικές εκλογές δεν αποκλείει τη συμμετοχή στις εκλογές του Νοεμβρίου.

Το ζήτημα όμως είναι αρκετά σοβαρό και προκάλεσε την αντίδραση του γενικού εισαγγελέα του Νιου Χάμσαϊρ, ο οποίος διέταξε τη διερεύνηση του τηλεφωνήματος από τη Δευτέρα.

Όμως, ο εντοπισμός της πηγής του fake audio θα αποδειχθεί ιδιαίτερα δύσκολος επειδή διαδόθηκε μέσω τηλεφώνου και όχι στο διαδίκτυο, σύμφωνα με τη Τζόαν Ντόνοβαν, επίκουρη καθηγήτρια δημοσιογραφίας και σπουδών αναδυόμενων μέσων στο Πανεπιστήμιο της Βοστώνης. Τα ηχητικά μηνύματα που παραδίδονται μέσω τηλεφώνου δεν συνοδεύονται από τα ίδια ψηφιακά ίχνη. “Πρόκειται για μια ένδειξη της επόμενης γενιάς βρώμικων κόλπων“, δήλωσε η Ντόνοβαν.

Υπάρχει και ένας άλλος λόγος για τον οποίο το fake audio του Μπάιντεν ήταν ιδιαίτερα ανησυχητικό για όσους ερευνούν περιστατικά παραπληροφόρησης αλλά και τους εκλογικούς αξιωματούχους. Επιβεβαίωσε τον μεγαλύτερο φόβο τους: κακόβουλοι παράγοντες χρησιμοποιούν τις απομιμήσεις όχι μόνο για να επηρεάσουν την κοινή γνώμη, αλλά και για να εμποδίσουν τους ψηφοφόρους να προσέλθουν στις κάλπες.

“Ακόμα και αν μια τέτοια παραπληροφόρηση εισάγει σύγχυση που επηρεάζει μόνο μερικές εκατοντάδες ή χιλιάδες ψήφους, θα μπορούσε να έχει σημασία όσον αφορά τα επιμέρους αποτελέσματα και το τελικό αποτέλεσμα”, δήλωσε ο Nick Diakopoulos, καθηγητής στο Πανεπιστήμιο Northwestern, ο οποίος έχει ασχοληθεί με fake audio και εκλογές σε ερευνητικό επίπεδο.

Σύμφωνα με το TIME, η Ομοσπονδιακή Εκλογική Επιτροπή των ΗΠΑ έχει κάνει μικρά βήματα προς τη ρύθμιση των πολιτικών deepfakes, αλλά δεν έχει ακόμη βάλει στο στόχαστρο τις τεχνολογίες που βοηθούν στη δημιουργία τους. Ορισμένες πολιτείες έχουν προτείνει τους δικούς τους νόμους για να περιορίσουν τα deepfakes.

Στα εκλογικά επιτελεία, οι υπεύθυνοι διεξάγουν εκπαιδευτικές ασκήσεις για να προετοιμαστούν για ενδεχόμενη επίθεση. Περίπου 100 ομοσπονδιακοί και πολιτειακοί αξιωματούχοι συγκεντρώθηκαν στο Κολοράντο τον Αύγουστο για να σκεφτούν την καλύτερη δυνατή απάντηση σε ένα υποθετικό ψεύτικο βίντεο που περιέχει ψεύτικες πληροφορίες για τις εκλογές. Τα deepfakes βρέθηκαν επίσης στο επίκεντρο μιας άλλης άσκησης στην Αριζόνα τον Δεκέμβριο, όταν οι αξιωματούχοι επεξεργάστηκαν ένα σενάριο στο οποίο ένα βίντεο του υπουργού Εξωτερικών Adrian Fontes παραποιήθηκε για να διαδοθούν ανακριβείς πληροφορίες.

Εν τω μεταξύ, τα εργαλεία ανίχνευσης deepfake βρίσκονται ακόμη στα σπάργανα και παραμένουν ασαφή.

Τη Δευτέρα, για παράδειγμα, το εργαλείο ανίχνευσης της ElevenLabs έδειξε ότι η κλήση του Μπάιντεν ήταν απίθανο να έχει δημιουργηθεί με τη χρήση λογισμικού κλωνοποίησης – ακόμη και όταν η νεοσύστατη εταιρεία ανίχνευσης deepfake Clarity δήλωσε ότι ήταν περισσότερο από 80% πιθανό να πρόκειται για deepfake.

Εκλογές στις ΗΠΑ
Εκλογές στις ΗΠΑ ISTOCK

“Συναγερμός” για τα audio deepfakes για να αποτραπεί το “εκλογικό χάος”

Πολλοί είναι αυτοί που έχουν προειδοποιήσει, σύμφωνα με το TIME, ότι με τη νέα τεχνολογία AI, τα βίντεο και οι εικόνες που δημιουργούνται μέσω τεχνητής νοημοσύνης πιθανότατα θα χρησιμοποιηθούν στις εκλογές των ΗΠΑ το 2024 για πολιτικό όφελος, σε μια εκλογική διαδικασία τόσο κρίσιμη, όπου μάλιστα οι μισοί Αμερικανοί, σύμφωνα με τις δημοσκοπήσεις, δεν έχουν καταλήξει ακόμη στην ψήφο τους.

Αλλά στην παρούσα συγκυρία, τα audio deepfakes είναι αυτά που έχουν ανησυχήσει τους ειδικούς. Είναι εύκολο να τα επεξεργαστεί κανείς, φθηνά στην παραγωγή τους και ιδιαίτερα δύσκολο να εντοπιστούν. Συνδυάζοντας ένα πειστικό τηλεφωνικό μήνυμα με μια βάση δεδομένων εγγραφής ψηφοφόρων, ο άνθρωπος που θα πραγματοποιήσει αυτή την ενέργεια έχει ένα ισχυρό όπλο που ακόμη και τα πιο προηγμένα εκλογικά συστήματα δεν είναι κατάλληλα εξοπλισμένα για να το χειριστούν, λένε οι ερευνητές.

“Η ώρα της πολιτικής απάτης είναι εδώ”, δήλωσε ο Ρόμπερτ Βάισμαν, πρόεδρος του think tank για την υπεράσπιση των καταναλωτών Public Citizen. Ο ίδιος κάλεσε τους νομοθέτες να θέσουν σε εφαρμογή μέτρα προστασίας κατά των ψεύτικων ηχογραφήσεων και βιντεοσκοπήσεων, ώστε να αποτραπεί το “εκλογικό χάος”.

Το ψεύτικο μήνυμα του Μπάιντεν έρχεται σε μια στιγμή που λογισμικά τεχνητής νοημοσύνης χρησιμοποιούνται σε έναν αυξανόμενο αριθμό πολιτικών εκστρατειών στις ΗΠΑ, έτσι ώστε να προσεγγίσουν μαζικά τους ψηφοφόρους, την ίδια στιγμή που καταγράφεται η τάση επενδυτές ρίχνουν χρήματα σε νεοφυείς εταιρείες κλωνοποίησης φωνής.

Τη Δευτέρα, ενώ το deepfake τηλεφωνικό μήνυμα έκανε το γύρο του κόσμου, η startup που αναπαράγει φωνή τεχνητής νοημοσύνης ElevenLabs ανακοίνωσε ότι συγκέντρωσε νέο γύρο χρηματοδότησης που αποτιμά την εταιρεία στα 1,1 δισεκατομμύριο δολάρια.

Η συγκεκριμένη, παραποιημένη ηχογράφηση πολιτικού μηνύματος δεν ήταν η πρώτη. Πέρυσι, ηχητικά deepfakes εξαπλώθηκαν στα μέσα κοινωνικής δικτύωσης πριν από τις βουλευτικές εκλογές της Σλοβακίας, συμπεριλαμβανομένου ενός κλιπ στο οποίο ο ηγέτης του κόμματος Michal Simecka φαινόταν να συζητά ένα σχέδιο αγοράς ψήφων.

Μέχρι στιγμής, η πολιτική χρήση των video και audio deepfakes έχει αποδειχθεί περιορισμένη. Το τι θα μας επιφυλάξει το μέλλον, μένει να φανεί στις επόμενες εκλογικές διδικασίες ανά τον κόσμο.

Ροή Ειδήσεων

Περισσότερα