Η τεχνολογία Deepfake έχει ήδη αποδειχθεί ότι είναι ένα ανησυχητικά αποτελεσματικό μέσο διάδοσης παραπληροφόρησης, αλλά μια νέα μελέτη δείχνει ότι οι επιπτώσεις των προγραμμάτων παραγωγής τεχνητής νοημοσύνης μπορεί να είναι πιο περίπλοκες από ό,τι αρχικά φοβόταν. Σύμφωνα με ευρήματα που δημοσιεύθηκαν νωρίτερα αυτό το μήνα στο
PLOS One
τα βαθιά ψεύτικα κλιπ μπορούν να αλλάξουν τις αναμνήσεις ενός θεατή από το παρελθόν, καθώς και την αντίληψή του για τα γεγονότα.
Για να ελέγξουν την αποτελεσματικότητα των πλαστών, ερευνητές στο University College Cork στην Ιρλανδία ζήτησαν από σχεδόν 440 άτομα να παρακολουθήσουν ψεύτικα κλιπ από παραποιημένα ριμέικ ταινιών όπως ο
Will Smith
στο
Το Matrix
ο Chris Pratt ως Indiana Jones, ο
Brad Pitt
και η Angelina Jolie
Η ΛΑΜΨΗ
και η Charlize Theron αντικαθιστά την Brie Larson
Captain
Marvel
. Από εκεί, οι συμμετέχοντες παρακολούθησαν αποσπάσματα από τις πραγματικές διασκευές ταινιών όπως
ο Τσάρλι και το εργοστάσιο σοκολάτας
,
Ολική επαναφορά
και
Κάρι
. Εν τω μεταξύ, σε ορισμένους εθελοντές δόθηκαν επίσης περιγραφές κειμένου των ανύπαρκτων ριμέικ.
[Related: This fictitious news show is entirely produced by AI and deepfakes.]
Μετά την ανασκόπηση, σχεδόν το 50 τοις εκατό των συμμετεχόντων ισχυρίστηκαν ότι θυμούνται τα βαθιά ψεύτικα remakes που βγήκαν στους κινηματογράφους. Από αυτούς, πολλοί πίστευαν ότι αυτές οι φανταστικές ταινίες ήταν στην πραγματικότητα
καλύτερα
από τα πρωτότυπα. Αλλά όσο ανησυχητικό κι αν είναι αυτοί οι αριθμοί, η χρήση deepfakes για την παραποίηση του παρελθόντος δεν φάνηκε πιο αποτελεσματική από την απλή ανάγνωση των ανακεφαλαιώσεων κειμένου φανταστικών ταινιών.
Μιλώντας με
Το Daily Beast
Την Παρασκευή, η ερευνήτρια παραπληροφόρησης και επικεφαλής συγγραφέας της μελέτης, Τζίλιαν Μέρφι, δεν πίστευε ότι τα ευρήματα είναι «ιδιαίτερα ανησυχητικά», δεδομένου ότι δεν υποδεικνύουν μια «μοναδικά ισχυρή απειλή» που παρουσιάζουν τα deepfakes σε σύγκριση με τις υπάρχουσες μεθόδους παραπληροφόρησης. Τούτου λεχθέντος, παραδέχθηκαν ότι τα deepfakes θα μπορούσαν να είναι καλύτερα στη διάδοση παραπληροφόρησης εάν καταφέρουν να γίνουν viral ή να παραμείνουν αξέχαστες για μεγάλο χρονικό διάστημα.
Ένα βασικό συστατικό για τις πιθανές επιτυχίες αυτών των κακόπιστων deepfakes είναι αυτό που είναι γνωστό ως παρακινημένος συλλογισμός – η τάση των ανθρώπων να
επιτρέψτε άθελά σας
προκαταλήψεις και προκαταλήψεις για να τους επηρεάσουν
αντιλήψεις της πραγματικότητας
. Αν κάποιος δει υποτιθέμενα στοιχεία που υποστηρίζουν τις υπάρχουσες πεποιθήσεις, ένα άτομο είναι πιο πιθανό να λάβει αυτά τα στοιχεία στην ονομαστική του αξία χωρίς πολύ έλεγχο. Ως εκ τούτου, είναι πιο πιθανό να πιστέψετε ένα deepfake εάν είναι υπέρ των κοινωνικοπολιτικών σας τάσεων, ενώ μπορεί να είστε πιο δύσπιστοι για ένα που φαίνεται να «διαψεύδει» το επιχείρημά σας.
[Related: Deepfakes may use new
technology
, but they’re based on an old idea.]
Η συλλογιστική με κίνητρο είναι αρκετά κακή από μόνη της, αλλά τα deepfakes θα μπορούσαν εύκολα να επιδεινώσουν αυτή τη συνηθισμένη λογική πλάνη, εάν οι άνθρωποι δεν γνωρίζουν τέτοια ζητήματα. Η βελτίωση του γραμματισμού του κοινού στα μέσα επικοινωνίας και των δεξιοτήτων κριτικής συλλογιστικής είναι βασικοί παράγοντες για να διασφαλιστεί ότι οι άνθρωποι θυμούνται έναν πρωταγωνιστή του Will Smith
Μήτρα
ως ένα
ενδιαφέρον Hollywood “What If?”
αντί για γεγονός. Όσο για το αν ένα τέτοιο έργο θα ήταν καλύτερο ή όχι από το πρωτότυπο – όπως πολλά deepfakes, όλα εξαρτώνται από το πώς το βλέπεις.


