ΕΝΑΣ ΔΥΣΤΟΠΙΚΟΣ ΚΟΣΜΟΣ
γεμίζει το καρέ του βίντεο 32 δευτερολέπτων. Οι ένοπλες δυνάμεις της Κίνας εισβάλλουν στην Ταϊβάν. Η δράση περιορίζεται σε κλειστές βιτρίνες μετά από μια καταστροφική τραπεζική κατάρρευση και το Σαν Φρανσίσκο σε στρατιωτικό lockdown. «Ποιος είναι υπεύθυνος εδώ; Αισθάνεται σαν το τρένο να βγαίνει από τις γραμμές», λέει ένας αφηγητής καθώς τελειώνει το κλιπ.
Όποιος παρακολούθησε τη διαφήμιση του Απριλίου στο YouTube θα μπορούσε να συγχωρεθεί που είδε απόηχους των επικαιρών γεγονότων στις σκηνές. Αλλά οι συνδυασμένες εκπομπές ειδήσεων και άλλα πλάνα ήρθαν με μια μικρή δήλωση αποποίησης ευθύνης στην επάνω αριστερή γωνία: «Κατασκευασμένο εξ ολοκλήρου με εικόνες τεχνητής νοημοσύνης». Δεν έχει δραματοποιηθεί ή ενισχυθεί με ειδικά εφέ, αλλά εξ ολοκλήρου που δημιουργείται από την τεχνητή νοημοσύνη.
Το διαφημιστικό σποτ, που παρήγαγε η Ρεπουμπλικανική Εθνική Επιτροπή ως απάντηση στην προσπάθεια επανεκλογής του προέδρου
Τζο
Μπάιντεν, ήταν οιωνός. Εν όψει των επόμενων αμερικανικών προεδρικών εκλογών, το 2024, η τεχνητή νοημοσύνη εισβάλλει σε μια πολιτική αρένα που εξακολουθεί να παραμορφώνεται από την διαδικτυακή παρέμβαση από ξένα κράτη μετά το 2016 και το 2020.
Οι ειδικοί πιστεύουν ότι η επιρροή του θα επιδεινωθεί όσο πλησιάζει η ψηφοφορία. «Βρισκόμαστε μάρτυρες μιας κομβικής στιγμής όπου οι αντίπαλοι της δημοκρατίας έχουν την ικανότητα να εξαπολύσουν μια τεχνολογική πυρηνική έκρηξη», λέει
Όρεν Ετζιώνη
, πρώην διευθύνων σύμβουλος και νυν σύμβουλος του μη κερδοσκοπικού οργανισμού AI2, ενός ερευνητικού ινστιτούτου με έδρα τις ΗΠΑ που εστιάζει στην τεχνητή νοημοσύνη και τις επιπτώσεις της. «Τα όπλα της επιλογής τους είναι η παραπληροφόρηση και η παραπληροφόρηση, που χρησιμοποιούνται με απαράμιλλη ένταση για να διαμορφώσουν και να επηρεάσουν το εκλογικό σώμα όπως ποτέ άλλοτε».
Οι ρυθμιστικοί φορείς έχουν αρχίσει να ανησυχούν επίσης. Παρόλο που και τα δύο μεγάλα κόμματα των ΗΠΑ έχουν αγκαλιάσει την τεχνητή νοημοσύνη στις εκστρατείες τους, το Κογκρέσο έχει πραγματοποιήσει αρκετές ακροάσεις σχετικά με τις χρήσεις της τεχνολογίας και την πιθανή επίβλεψή της. Αυτό το
καλοκαίρι
, ως μέρος της καταστολής της ρωσικής παραπληροφόρησης, η Ευρωπαϊκή Ένωση ζήτησε από τη Meta και την Google
περιεχόμενο ετικέτας που δημιουργήθηκε από AI
. Τον Ιούλιο, αυτές οι δύο εταιρείες, καθώς και η Microsoft, η Amazon και άλλες, συμφώνησαν με τα εθελοντικά προστατευτικά κιγκλιδώματα του Λευκού Οίκου, τα οποία περιλαμβάνουν επισήμανση μέσων που παράγονται με τον ίδιο τρόπο.
Είναι δυνατό να υπερασπιστεί κανείς τον εαυτό του ενάντια στην παραπληροφόρηση (ανακριβείς ή παραπλανητικούς ισχυρισμούς) και τη στοχευμένη παραπληροφόρηση (κακόβουλοι και αντικειμενικά ψευδείς ισχυρισμοί που έχουν σχεδιαστεί για να εξαπατήσουν). Οι ψηφοφόροι θα πρέπει να εξετάσουν το ενδεχόμενο να απομακρυνθούν από τα μέσα κοινωνικής δικτύωσης σε παραδοσιακές, αξιόπιστες πηγές για πληροφορίες σχετικά με τους υποψηφίους κατά την προεκλογική περίοδο. Χρησιμοποιώντας ιστότοπους όπως
FactCheck.org
θα βοηθήσει στην αντιμετώπιση ορισμένων από τα ισχυρότερα εργαλεία παραμόρφωσης. Αλλά για να καταρρίψετε πραγματικά έναν μύθο, είναι σημαντικό να καταλάβετε ποιος – ή τι – δημιουργεί τους μύθους.
Μια στάλα σε ένα θερμοπίδακα
Όπως δείχνει η παραπληροφόρηση από τις προηγούμενες προεκλογικές περιόδους, οι εκστρατείες πολιτικής παρέμβασης ευδοκιμούν σε κλίμακα — γι’ αυτό ο όγκος και η ταχύτητα της δημιουργίας με τροφοδοσία τεχνητής νοημοσύνης ανησυχούν τους ειδικούς. Το ChatGPT του OpenAI και παρόμοιες υπηρεσίες έχουν κάνει τη δημιουργία γραπτού περιεχομένου πιο εύκολη από ποτέ. Αυτά τα εργαλεία λογισμικού μπορούν να δημιουργήσουν σενάρια διαφημίσεων καθώς και ψευδείς
ειδήσεις
και απόψεις που προέρχονται από φαινομενικά νόμιμες πηγές.
«Έχουμε χαμηλώσει τα εμπόδια εισόδου βασικά σε όλους», λέει
Ντάρελ Μ. Γουέστ
, ανώτερος συνεργάτης στο Ινστιτούτο Brookings που γράφει τακτικά για τις επιπτώσεις της τεχνητής νοημοσύνης στη διακυβέρνηση. «Παλιότερα, για να χρησιμοποιήσεις εξελιγμένα εργαλεία τεχνητής νοημοσύνης, έπρεπε να έχεις τεχνικό υπόβαθρο». Τώρα οποιοσδήποτε έχει σύνδεση στο διαδίκτυο μπορεί να χρησιμοποιήσει την τεχνολογία για τη δημιουργία ή τη διάδοση κειμένου και εικόνων. «Δίνουμε μια
Ferrari
στα χέρια ανθρώπων που μπορεί να έχουν συνηθίσει να οδηγούν ένα Subaru», προσθέτει ο West.
Οι πολιτικές εκστρατείες χρησιμοποιούν την τεχνητή νοημοσύνη τουλάχιστον από το 2020 για να προσδιορίσουν το κοινό που συλλέγει χρήματα και να υποστηρίξει τις προσπάθειες να βγουν έξω από την ψήφο. Μια αυξανόμενη ανησυχία είναι ότι οι πιο προηγμένες επαναλήψεις θα μπορούσαν επίσης να χρησιμοποιηθούν για την αυτοματοποίηση των αυτοματοποιημένων κλήσεων με μια ρομποτική πλαστοπροσωπία του υποψηφίου που υποτίθεται ότι βρίσκεται στην άλλη άκρη της γραμμής.
Σε ένα
Ακρόαση στο αμερικανικό Κογκρέσο τον Μάιο
ο γερουσιαστής Richard Blumenthal από το Κονέκτικατ έπαιξε ένα ηχητικό deepfake που έφτιαξε το γραφείο του—χρησιμοποιώντας ένα σενάριο γραμμένο από το ChatGPT και ηχητικά αποσπάσματα από τις δημόσιες ομιλίες του—για να καταδείξει την αποτελεσματικότητα της τεχνητής νοημοσύνης και να υποστηρίξει ότι δεν πρέπει να μένει ανεξέλεγκτη.
Στην ίδια ακρόαση, ο Διευθύνων Σύμβουλος του OpenAI, Sam Altman, είπε ότι η παραπληροφόρηση και η στοχευμένη παραπληροφόρηση, με στόχο τη χειραγώγηση των ψηφοφόρων, ήταν αυτά που τον ανησύχησαν περισσότερο για την τεχνητή νοημοσύνη. «Θα αντιμετωπίσουμε εκλογές το επόμενο έτος και αυτά τα μοντέλα βελτιώνονται», είπε ο Altman, συμφωνώντας ότι το Κογκρέσο θα πρέπει να θεσπίσει κανόνες για τη βιομηχανία.
Δημιουργία εσόδων από bots και χειραγώγηση
Η τεχνητή νοημοσύνη μπορεί να προσελκύσει τους διαχειριστές εκστρατειών επειδή είναι φθηνή εργασία. Ουσιαστικά οποιοσδήποτε μπορεί να είναι συγγραφέας περιεχομένου—όπως στην περίπτωση του OpenAI, το οποίο εκπαίδευσε τα μοντέλα του χρησιμοποιώντας
κακοπληρωμένοι εργαζόμενοι στην Κένυα
. Οι δημιουργοί του ChatGPT έγραψαν το 2019 ότι ανησυχούν για την τεχνολογία που μειώνει το «κόστος των εκστρατειών παραπληροφόρησης» και υποστηρίζει «νομισματικό κέρδος, μια συγκεκριμένη πολιτική ατζέντα ή/και την επιθυμία να δημιουργηθεί χάος ή σύγχυση», αν και αυτό δεν σταμάτησε από την απελευθέρωση του λογισμικού.
Τα συστήματα που εκπαιδεύονται σε αλγόριθμους μπορούν επίσης να βοηθήσουν στη διάδοση παραπληροφόρησης, βοηθώντας να κωδικοποιήσουν τα ρομπότ που βομβαρδίζουν τους ψηφοφόρους με μηνύματα. Αν και η μέθοδος προγραμματισμού AI είναι σχετικά νέα, η τεχνική στο σύνολό της δεν είναι: Το ένα τρίτο της κίνησης στο Twitter υπέρ του Τραμπ κατά την πρώτη προεδρική συζήτηση του 2016 δημιουργήθηκε από bots, σύμφωνα με
Μελέτη του Πανεπιστημίου της Οξφόρδης
από εκείνη τη χρονιά. Μια παρόμοια τακτική χρησιμοποιήθηκε επίσης λίγες μέρες πριν από τις γαλλικές προεδρικές εκλογές του 2017, με απατεώνες των μέσων κοινωνικής δικτύωσης να «διαρρέουν» ψευδείς αναφορές για τον Εμανουέλ Μακρόν.
Τέτοιες πλασματικές αναφορές θα μπορούσαν να περιλαμβάνουν πλαστά βίντεο υποψηφίων που διαπράττουν εγκλήματα ή κάνουν επινοημένες δηλώσεις. Σε απάντηση στην πρόσφατη πολιτική διαφήμιση του RNC εναντίον του Μπάιντεν, ο Sam Cornale, ο εκτελεστικός διευθυντής της Εθνικής Επιτροπής των Δημοκρατικών, έγραψε στο X (πρώην Twitter) ότι η αναζήτηση εργαλείων τεχνητής νοημοσύνης ήταν εν μέρει συνέπεια του αποδεκατισμού της «εργατικής τάξης» των Ρεπουμπλικανών. Αλλά το DNC επιδίωξε επίσης να αναπτύξει εργαλεία τεχνητής νοημοσύνης για να υποστηρίξει τους υποψηφίους του, κυρίως για τη σύνταξη μηνυμάτων συγκέντρωσης κεφαλαίων προσαρμοσμένων στους ψηφοφόρους βάσει δημογραφικών στοιχείων.
Το σφάλμα στο λογισμικό μας
Και οι δύο πλευρές του διαδρόμου είναι έτοιμες να επωφεληθούν από την τεχνητή νοημοσύνη —και να την καταχραστούν— στις επερχόμενες εκλογές, συνεχίζοντας μια παράδοση πολιτικής
προπαγάνδα
ς και εκστρατειών συκοφαντίας που μπορεί να ανιχνευθεί τουλάχιστον στον 16ο αιώνα και στους «πόλεμους των φυλλαδίων». Ωστόσο, οι ειδικοί πιστεύουν ότι οι σύγχρονες στρατηγικές διάδοσης, εάν αφεθούν ανεξέλεγκτες, είναι ιδιαίτερα επικίνδυνες και μπορούν να επιταχύνουν την κατάρρευση της αντιπροσωπευτικής διακυβέρνησης και τις δίκαιες εκλογές χωρίς εκφοβισμό.
«Αυτό για το οποίο ανησυχώ είναι ότι τα μαθήματα που πήραμε από άλλες τεχνολογίες δεν πρόκειται να ενσωματωθούν στον τρόπο με τον οποίο αναπτύσσεται η τεχνητή νοημοσύνη», λέει.
Alice E. Marwick
κύριος ερευνητής στο Κέντρο Πληροφοριών, Τεχνολογίας και Δημόσιας Ζωής στο Πανεπιστήμιο της Βόρειας Καρολίνας στο Τσάπελ Χιλ.
Η τεχνητή νοημοσύνη έχει συχνά προκαταλήψεις —ειδικά κατά των περιθωριοποιημένων φύλων και των έγχρωμων ανθρώπων— που μπορεί να απηχούν τα κυρίαρχα πολιτικά σημεία συζήτησης που ήδη αποξενώνουν αυτές τις κοινότητες. Οι προγραμματιστές τεχνητής νοημοσύνης θα μπορούσαν να μάθουν από τους τρόπους με τους οποίους οι άνθρωποι χρησιμοποιούν κατάχρηση των εργαλείων τους για να επηρεάσουν τις εκλογές και στη συνέχεια να χρησιμοποιήσουν αυτά τα μαθήματα για να δημιουργήσουν αλγόριθμους που μπορούν να τεθούν υπό έλεγχο. Ή θα μπορούσαν να δημιουργήσουν αλγοριθμικά εργαλεία για να επαληθεύσουν και να καταπολεμήσουν τις γεννήτριες ψευδών πληροφοριών. Το OpenAI προέβλεψε τις συνέπειες. Αλλά μπορεί επίσης να έχει την ικανότητα να το μειώσει.
Διαβάστε περισσότερα για τη ζωή στην εποχή της AI:
•
Η λογική πίσω από τα chatbot AI είναι εκπληκτικά βασική
•
Θα μπορέσουμε ποτέ να εμπιστευτούμε τις συμβουλές υγείας από ένα AI;
Ή δείτε όλες τις ιστορίες μας PopSci+.
