Προειδοποίηση: Η απάτη με το AI Deepfake είναι εν προόδω
Ο κόσμος είναι ον
καταρρέουν από
deepfakes
που δη
μι
ουργούνται από την τεχνητή νοημοσύνη
, και οι πιο πρόσφατες μισογυνικές προσπάθειες να τους σταματήσουν δεν κάνουν τίποτα. Ομοσπονδιακές ρυθμιστικές αρχές
απαγόρευσαν τις deepfake robocalls
την Πέμπτη, όπως αυτές
υποδυόμενος τον Πρόεδρο Μπάιντεν στις προκριματικές
εκλογές
του Νιου Χάμσαϊρ
. Εν τω μεταξύ,
Το OpenAI και η Google κυκλοφόρησαν υδατογραφήματα
αυτή την εβδομάδα για να χαρακτηρίσετε τις εικόνες ως δημιουργημένες από AI. Ωστόσο, αυτά τα μέτρα δεν διαθέτουν τα απαραίτητα δόντια για να σταματήσουν τα τεχνητά ψεύτικα.
«Ήρθαν για να μείνουν», δήλωσε ο Vijay Balasubramaniyan, Διευθύνων Σύμβουλος της Pindrop, η οποία αναγνώρισε την ElevenLabs ως την υπηρεσία που χρησιμοποιήθηκε για τη δημιουργία της ψεύτικης ρομποτικής κλήσης Μπάιντεν. «Οι τεχνολογίες ανίχνευσης Deepfake πρέπει να υιοθετηθούν στην πηγή, στο σημείο μετάδοσης και στον προορισμό. Απλώς πρέπει να συμβεί παντού».
Οι προσπάθειες
πρόληψη
ς του Deepfake είναι μόνο βαθιές στο δέρμα
Η Ομοσπονδιακή Επιτροπή Επικοινωνιών (FCC) που απαγορεύει τις deepfake ρομποκλήσεις είναι ένα βήμα προς τη σωστή κατεύθυνση, σύμφωνα με τον Balasubramaniyan, αλλά υπάρχει ελάχιστη διευκρίνιση για το πώς θα εφαρμοστεί αυτό. Επί του παρόντος, είμαστε
αλίευση deepfakes αφού γίνει η ζημιά
, και σπάνια τιμωρώντας τους κακούς παράγοντες που ευθύνονται. Αυτό είναι πολύ αργό, και στην πραγματικότητα δεν αντιμετωπίζει το πρόβλημα.
Το OpenAI εισήγαγε υδατογραφήματα στις εικόνες του Dall-E αυτή την εβδομάδα, τόσο οπτικά όσο και ενσωματωμένα στα μεταδεδομένα μιας φωτογραφίας. Ωστόσο, η εταιρεία ταυτόχρονα
αναγνώρισε ότι αυτό μπορεί εύκολα να αποφευχθεί με τη λήψη ενός στιγμιότυπου οθόνης
. Αυτό έμοιαζε λιγότερο σαν λύση και περισσότερο σαν να έλεγε η εταιρεία, “Ω, καλά, τουλάχιστον προσπαθήσαμε!”
Εν τω μεταξύ, deepfakes του αφεντικού ενός χρηματοοικονομικού εργάτη στο Χονγκ Κονγκ
τον εξαπάτησε από 25 εκατομμύρια δολάρια
. Ήταν μια συγκλονιστική περίπτωση που έδειξε πόσο η τεχνολογία deepfake θολώνει τα όρια της πραγματικότητας.
Το πρόβλημα του Deepfake θα γίνει μόνο χειρότερο
Αυτές οι λύσεις απλά δεν αρκούν. Το θέμα είναι ότι η τεχνολογία ανίχνευσης deepfake είναι νέα και δεν πιάνει τόσο γρήγορα όσο η γενετική τεχνητή νοημοσύνη. Πλατφόρμες όπως το Meta, το X, ακόμη και η τηλεφωνική σας εταιρεία πρέπει να αγκαλιάσουν την ανίχνευση deepfake. Αυτές οι εταιρείες κάνουν πρωτοσέλιδα για όλα τα νέα χαρακτηριστικά τεχνητής νοημοσύνης τους, αλλά τι γίνεται με τις δυνατότητες ανίχνευσης AI;
Εάν παρακολουθείτε ένα deepfake βίντεο στο Facebook, θα πρέπει να έχουν μια προειδοποίηση σχετικά με αυτό. Εάν λαμβάνετε μια κλητή με ψεύτικο τηλέφωνο, ο πάροχος υπηρεσιών σας θα πρέπει να διαθέτει λογισμικό για να το συλλάβει. Αυτές οι εταιρείες δεν μπορούν απλώς να πετάξουν τα χέρια τους στον αέρα, αλλά σίγουρα το προσπαθούν.
Η τεχνολογία ανίχνευσης Deepfake πρέπει επίσης να γίνει πολύ καλύτερη και να γίνει πολύ πιο διαδεδομένη. Επί του παρόντος, η ανίχνευση deepfake δεν είναι 100% ακριβής για τίποτα, σύμφωνα με τον CEO της CopyLeaks, Alon Yamin. Η εταιρεία του διαθέτει ένα από τα καλύτερα εργαλεία για τον εντοπισμό κειμένου που δημιουργείται από AI, αλλά η ανίχνευση ομιλίας και βίντεο με τεχνητή νοημοσύνη είναι μια άλλη πρόκληση. Η ανίχνευση του Deepfake παρουσιάζει καθυστέρηση στη γενετική τεχνητή νοημοσύνη και πρέπει να αυξηθεί γρήγορα.
Τα Deepfakes είναι πραγματικά
η νέα παραπληροφόρηση
, αλλά είναι πολύ πιο πειστικό. Υπάρχει κάποια ελπίδα ότι η τεχνολογία και οι ρυθμιστικές αρχές προλαβαίνουν να αντιμετωπίσουν αυτό το πρόβλημα, αλλά οι ειδικοί συμφωνούν ότι τα deepfakes θα επιδεινωθούν μόνο πριν βελτιωθούν.
Παρόμοια άρθρα
VIA:
gizmodo.com

