Ο Deepfake ήχος μπορεί να ξεγελάσει ακόμη και προετοιμασμένους ακροατές

Τα βαθιά ψεύτικα ήχου είναι συχνά ήδη αρκετά πειστικά και υπάρχει λόγος να αναμένουμε ότι η ποιότητά τους θα βελτιώνεται μόνο με την πάροδο του χρόνου. Αλλά ακόμα και όταν οι άνθρωποι προσπαθούν σκληρά, προφανώς δεν είναι εξαιρετικοί στο να διακρίνουν πρωτότυπες φωνές από τεχνητά δημιουργημένες φωνές. Το χειρότερο είναι ότι μια νέα μελέτη δείχνει ότι οι άνθρωποι επί του παρόντος δεν μπορούν να κάνουν πολλά για αυτό —ακόμα και αφού προσπαθούν να βελτιώσουν τις δεξιότητές τους ανίχνευσης.

Σύμφωνα με έρευνα που δημοσιεύτηκε σήμερα στο


PLOS One


, ο deepfaked ήχος είναι ήδη ικανός να ξεγελάσει τους ακροατές περίπου μία στις τέσσερις προσπάθειες. Τα ανησυχητικά στατιστικά στοιχεία προέρχονται από ερευνητές στο Πανεπιστήμιο του Λονδίνου του Ηνωμένου Βασιλείου, οι οποίοι ζήτησαν πρόσφατα από περισσότερους από 500 εθελοντές να επανεξετάσουν έναν συνδυασμό ψεύτικων και γνήσιων φωνών τόσο στα Αγγλικά όσο και στα Μανδαρινικά. Από αυτούς τους συμμετέχοντες, σε κάποιους παρασχέθηκαν παραδείγματα ψεύτικης φωνής εκ των προτέρων για να βοηθηθούν ενδεχομένως στην προετοιμασία τους για τον εντοπισμό τεχνητών κλιπ.


[Related: This fictitious

show is entirely produced by AI and

.]

Ανεξάρτητα από την εκπαίδευση, ωστόσο, οι ερευνητές διαπίστωσαν ότι οι συμμετέχοντες τους κατά μέσο όρο καθόρισαν σωστά τα deepfakes περίπου στο 73 τοις εκατό των περιπτώσεων. Αν και τεχνικά είναι ένας επιτυχής βαθμός από τα περισσότερα ακαδημαϊκά πρότυπα, το ποσοστό σφάλματος είναι αρκετό για να εγείρει σοβαρές ανησυχίες, ειδικά όταν αυτό το ποσοστό ήταν κατά μέσο όρο το ίδιο μεταξύ εκείνων με και χωρίς την προκαταρκτική εκπαίδευση.

Αυτό είναι εξαιρετικά ανησυχητικό δεδομένου του τι έχει ήδη καταφέρει η τεχνολογία

κατά τη σύντομη διάρκεια ζωής της – νωρίτερα φέτος, για παράδειγμα, απατεώνες λύτρωσαν σχεδόν επιτυχώς μετρητά από μια μητέρα χρησιμοποιώντας ψεύτικο ήχο της κόρης της που υποτίθεται ότι απήχθη. Και είναι ήδη

μακριά από μόνος

στην αντιμετώπιση τέτοιων

τρομακτικές καταστάσεις

.

Τα αποτελέσματα είναι ακόμη πιο ανησυχητικά όταν διαβάζετε (ή, σε αυτήν την περίπτωση, ακούτε) ανάμεσα στις γραμμές. Οι ερευνητές σημειώνουν ότι οι συμμετέχοντες τους ήξεραν, στο πείραμα, ότι ο στόχος τους ήταν να ακούν ψεύτικο ήχο, με αποτέλεσμα ορισμένοι από αυτούς να είναι ήδη σε εγρήγορση για πλαστογραφίες. Αυτό σημαίνει ότι οι ανυποψίαστοι στόχοι μπορούν εύκολα να έχουν χειρότερη απόδοση από αυτούς στο πείραμα. Η μελέτη σημειώνει επίσης ότι η ομάδα δεν χρησιμοποίησε ιδιαίτερα προηγμένη τεχνολογία σύνθεσης ομιλίας, πράγμα που σημαίνει ότι υπάρχει ήδη ήχος που δημιουργείται πιο πειστικά.


[Related: AI voice filters can make you sound like anyone—and make anyone sound like you.]

Είναι ενδιαφέρον ότι όταν αυτοί

ήταν

σωστά επισημασμένα, τα πιθανά δώρα των deepfakes διέφεραν ανάλογα με τη γλώσσα που μιλούσαν οι συμμετέχοντες. Όσοι μιλούσαν άπταιστα αγγλικά ανέφεραν συχνότερα την «αναπνοή» ως δείκτη, ενώ οι ομιλητές της Μανδαρινικής εστίασαν στην ευχέρεια, τον ρυθμό και τον ρυθμό για τα ενδεικτικά τους σημάδια.

Προς το παρόν, ωστόσο, η ομάδα καταλήγει στο συμπέρασμα ότι η βελτίωση των αυτοματοποιημένων συστημάτων ανίχνευσης είναι ένας πολύτιμος και ρεαλιστικός στόχος για την καταπολέμηση της ανεπιθύμητης φωνητικής κλωνοποίησης τεχνητής νοημοσύνης, αλλά προτείνει επίσης ότι η crowdsourcing ανθρώπινη ανάλυση των deepfakes θα μπορούσε να βοηθήσει τα πράγματα. Ανεξάρτητα από αυτό, είναι ένα ακόμη επιχείρημα υπέρ της καθιέρωσης εντατικού ρυθμιστικού ελέγχου και αξιολόγησης των deepfakes και άλλων τεχνολογιών τεχνητής νοημοσύνης.


https://www.popsci.com/



Μπορεί επίσης να σας αρέσει


Αφήστε ένα σχόλιο στο άρθρο…



Ακύρωση απάντησης

Η διεύθυνση email σας δεν θα δημοσιευθεί.