Προετοιμαστείτε για τις εκλογές Deepfake του 2024
«Με εκπλήσσει συνεχώς το γεγονός ότι στον φυσικό κόσμο, όταν κυκλοφορούμε προϊόντα, υπάρχουν πραγματικά αυστηρές κατευθυντήριες γραμμές», λέει ο Farid. “Δεν μπορείτε να κυκλοφορήσετε ένα προϊόν και να ελπίζετε ότι δεν θα σκοτώσει τον πελάτη σας. Αλλά με το λογισμικό, λέμε: “Αυτό δεν λειτουργεί πραγματικά, αλλά ας δούμε τι θα συμβεί όταν το κυκλοφορήσουμε σε δισεκατομμύρια ανθρώπους”.
Αν αρχίσουμε να βλέπουμε έναν σημαντικό αριθμό deepfakes να εξαπλώνονται κατά τη διάρκεια των εκλογών, είναι εύκολο να φανταστούμε κάποιον σαν τον Donald Trump να μοιράζεται αυτό το είδος περιεχομένου στα μέσα κοινωνικής δικτύωσης και να ισχυρίζεται ότι είναι πραγματικό. Ένα deepfake του προέδρου Μπάιντεν που λέει κάτι που αποκλείει θα μπορούσε να βγει λίγο πριν από τις εκλογές και πολλοί άνθρωποι μπορεί να μην ανακαλύψουν ποτέ ότι δημιουργήθηκε από AI. Η έρευνα έχει σταθερά Εμφανίζεται, εξάλλου, ότι οι ψευδείς ειδήσεις εξαπλώνονται περισσότερο από τις πραγματικές ειδήσεις.
Ακόμα κι αν τα deepfakes δεν γίνουν πανταχού παρόντα πριν από τις εκλογές του 2024, οι οποίες απέχουν ακόμη 18 μήνες, το απλό γεγονός ότι μπορεί να δημιουργηθεί αυτό το είδος περιεχομένου θα μπορούσε να επηρεάσει τις εκλογές. Γνωρίζοντας ότι οι δόλιες εικόνες, ο ήχος και το βίντεο μπορούν να δημιουργηθούν σχετικά εύκολα θα μπορούσε να κάνει τους ανθρώπους να μην εμπιστεύονται το νόμιμο υλικό που συναντούν.
«Από ορισμένες απόψεις, τα deepfakes και η γενετική τεχνητή νοημοσύνη δεν χρειάζεται καν να εμπλακούν στις εκλογές για να προκαλέσουν αναστάτωση, επειδή τώρα το πηγάδι έχει δηλητηριαστεί με την ιδέα ότι οτιδήποτε θα μπορούσε να είναι ψεύτικο», λέει ο Ajder. “Αυτό παρέχει μια πραγματικά χρήσιμη δικαιολογία αν βγει κάτι άβολο που σας παρουσιάζει. Μπορείτε να το απορρίψετε ως ψεύτικο».
Τι μπορεί λοιπόν να γίνει για αυτό το πρόβλημα; Μια λύση είναι κάτι που ονομάζεται Γ2PA. Αυτή η τεχνολογία υπογράφει κρυπτογραφικά οποιοδήποτε περιεχόμενο δημιουργείται από μια συσκευή, όπως ένα τηλέφωνο ή μια βιντεοκάμερα, και καταγράφει ποιος τράβηξε την εικόνα, πού και πότε. Στη συνέχεια, η κρυπτογραφική υπογραφή διατηρείται σε ένα κεντρικό αμετάβλητο καθολικό. Αυτό θα επέτρεπε στα άτομα που παράγουν νόμιμα βίντεο να αποδείξουν ότι είναι, στην πραγματικότητα, νόμιμα.
Ορισμένες άλλες επιλογές περιλαμβάνουν αυτό που ονομάζεται εικόνες και βίντεο δακτυλικών αποτυπωμάτων και υδατογράφησης. Το δακτυλικό αποτύπωμα περιλαμβάνει τη λήψη των λεγόμενων “hashes” από το περιεχόμενο, τα οποία είναι ουσιαστικά μόνο συμβολοσειρές των δεδομένων του, ώστε να μπορούν να επαληθευτούν ως νόμιμα αργότερα. Η υδατογράφηση, όπως θα περίμενε κανείς, περιλαμβάνει την εισαγωγή ψηφιακού υδατογραφήματος σε εικόνες και βίντεο.
Συχνά προτείνεται ότι μπορούν να αναπτυχθούν εργαλεία AI για τον εντοπισμό deepfakes, αλλά το Ajder δεν πωλείται σε αυτήν τη λύση. Λέει ότι η τεχνολογία δεν είναι αρκετά αξιόπιστη και ότι δεν θα είναι σε θέση να συμβαδίσει με τα συνεχώς μεταβαλλόμενα εργαλεία τεχνητής νοημοσύνης που αναπτύσσονται.
Μια τελευταία δυνατότητα για την επίλυση αυτού του προβλήματος θα ήταν να αναπτυχθεί ένα είδος άμεσου ελεγκτή γεγονότων για τους χρήστες των μέσων κοινωνικής δικτύωσης. Ο Aviv Ovadya, ερευνητής στο Berkman Klein Center for Internet &; Society στο Χάρβαρντ, λέει ότι θα μπορούσατε να επισημάνετε ένα κομμάτι περιεχομένου σε μια εφαρμογή και να το στείλετε σε μια μηχανή συμφραζομένων που θα σας ενημερώσει για την αλήθεια του.
«Ο γραμματισμός στα μέσα επικοινωνίας που εξελίσσεται με τον ρυθμό της προόδου αυτής της τεχνολογίας δεν είναι εύκολος. Πρέπει να είναι σχεδόν στιγμιαίο – όπου κοιτάζετε κάτι που βλέπετε στο διαδίκτυο και μπορείτε να πάρετε το πλαίσιο για αυτό το πράγμα», λέει ο Ovadya. «Τι είναι αυτό που κοιτάς; Θα μπορούσατε να το διασταυρώσετε με πηγές που μπορείτε να εμπιστευτείτε».
Εάν δείτε κάτι που μπορεί να είναι ψεύτικες ειδήσεις, το εργαλείο θα μπορούσε γρήγορα να σας ενημερώσει για την αλήθεια του. Αν δείτε μια εικόνα ή ένα βίντεο που φαίνεται ότι μπορεί να είναι ψεύτικο, θα μπορούσε να ελέγξει τις πηγές για να δει αν έχει επαληθευτεί. Ο Ovadya λέει ότι θα μπορούσε να είναι διαθέσιμο σε εφαρμογές όπως το WhatsApp και το Twitter ή θα μπορούσε απλώς να είναι η δική του εφαρμογή. Το πρόβλημα, λέει, είναι ότι πολλοί ιδρυτές με τους οποίους έχει μιλήσει απλά δεν βλέπουν πολλά χρήματα για την ανάπτυξη ενός τέτοιου εργαλείου.
Το αν κάποια από αυτές τις πιθανές λύσεις θα υιοθετηθεί πριν από τις εκλογές του 2024 μένει να το δούμε, αλλά η απειλή αυξάνεται και υπάρχουν πολλά χρήματα για την ανάπτυξη γενετικής τεχνητής νοημοσύνης και λίγα για την εξεύρεση τρόπων πρόληψης της εξάπλωσης αυτού του είδους παραπληροφόρησης.
«Νομίζω ότι θα δούμε μια πλημμύρα εργαλείων, όπως βλέπουμε ήδη, αλλά νομίζω [AI-generated political content] θα συνεχιστεί», λέει ο Ajder. «Βασικά, δεν είμαστε σε καλή θέση να ασχοληθούμε με αυτές τις απίστευτα γρήγορα κινούμενες, ισχυρές τεχνολογίες».