Άνθρωπος που απατήθηκε από Deepfake Βίντεο και ήχος του φίλου του

Μια βαθιά απάτη στην Κίνα έχει αυξήσει τους φόβους ότι

τεχνητή νοημοσύνη

θα επιτρέψει στους χάκερ να αποκτήσουν εύκολα οικονομικές πληροφορίες. Χάκερ που χρησιμοποιούν προηγμένο λογισμικό τεχνητής νοημοσύνης έπεισαν έναν άνδρα στη βόρεια Κίνα να μεταφέρει χρήματα στον φίλο του, αλλά αντ’ αυτού τα κατεύθυναν σε έναν δόλιο λογαριασμό.

Το θύμα είχε έδρα στο Μπαοτού, μια περιοχή στην εσωτερική Μογγολία, και η τοπική αστυνομία ανέφερε ότι ο χάκερ χρησιμοποίησε τεχνητή νοημοσύνη για να αναδημιουργήσει την ομοιότητα του φίλου σε μια βιντεοκλήση, συμπεριλαμβανομένου του προσώπου και της φωνής του. Η βαθιά απάτη οδήγησε το θύμα να πιστέψει ότι έστελνε 4,3 εκατομμύρια γιουάν (622.000 $) για τον φίλο του να κάνει μια κατάθεση προσφοράς. Όταν ο φίλος είπε στο θύμα ότι δεν γνώριζε το περιστατικό, ο άνδρας ανέφερε την απάτη στις αρχές που λένε ότι κατάφεραν να ανακτήσουν τα περισσότερα από τα κλεμμένα χρήματα, αλλά εξακολουθούν να εργάζονται για να ανακτήσουν τα υπόλοιπα.


Reuters


έχουν αναφερθεί.

Το Weibo, ένας κινεζικός ιστότοπος microblogging, χρησιμοποιείται ως φόρουμ για τη συζήτηση της συνεχιζόμενης απειλής των deepfake απατών, με το hashtag, «# AI scams are exploding σε όλη τη χώρα» γίνεται viral με περισσότερες από 120 εκατομμύρια προβολές τη Δευτέρα. «Αυτό δείχνει ότι οι φωτογραφίες, οι φωνές και τα βίντεο μπορούν να χρησιμοποιηθούν από απατεώνες», έγραψε ένας χρήστης. «Μπορούν οι κανόνες ασφάλειας πληροφοριών να συμβαδίζουν με τις τεχνικές αυτών των ανθρώπων;»

Αυτό το πρόσφατο περιστατικό έρχεται καθώς οι απάτες με τεχνητή νοημοσύνη έχουν αυξηθεί δραστικά παγκοσμίως, με αναφορές απατεώνων

χρησιμοποιώντας τεχνολογία AI για αναπαραγωγή φωνών για λήψη χρημάτων μέσω τηλεφωνικών κλήσεων

. Το Υπουργείο Εσωτερικής Ασφάλειας κυκλοφόρησε α


κανω ΑΝΑΦΟΡΑ


προειδοποιώντας για βαθιά ψεύτικες απάτες, λέγοντας: «Είναι προφανές ότι η σοβαρότητα και ο επείγων χαρακτήρας της τρέχουσας απειλής από συνθετικά μέσα εξαρτώνται από την έκθεση, την προοπτική και τη θέση αυτού που ρωτάτε. Το φάσμα των ανησυχιών κυμαινόταν από «επείγουσα απειλή» έως «μην πανικοβάλλεστε, απλώς να είστε προετοιμασμένοι».


Στο Ηνωμένο Βασίλειο, ο Διευθύνων Σύμβουλος μιας τοπικής εταιρείας ενέργειας έστειλε 220.000 ευρώ (περίπου 243.000 $) σε τραπεζικό λογαριασμό Ούγγρων προμηθευτών

αφού έλαβε τηλεφώνημα από το υποτιθέμενο αφεντικό του. Η φωνή ανήκε στην πραγματικότητα σε έναν απατεώνα που χρησιμοποίησε τεχνολογία φωνής AI για να αναπαράγει τη φωνή του αφεντικού και ο Διευθύνων Σύμβουλος είπε


Η Wall Street Journal


ότι αναγνώρισε τη λεπτή γερμανική προφορά και είπε ότι έφερε τη «μελωδία» της φωνής του.

Εν τω μεταξύ, στις ΗΠΑ, ένα αστυνομικό τμήμα στο νότιο Ουισκόνσιν προειδοποίησε τους κατοίκους νωρίτερα αυτό το μήνα για παρόμοιες απάτες, αφού έλαβε αναφορά από κάποιον που είπε ότι έλαβε κλήση από κάποιον που «ακουγόταν σαν συγγενής τους».


NBC Σικάγο


έχουν αναφερθεί. Αν και η αστυνομία είπε ότι δεν μπορούσε επίσημα να επαληθεύσει ότι ήταν φωνή που δημιουργήθηκε από AI, έγραψαν σε ένα Facebook


Θέση


“Θέλουμε η κοινότητά μας να γνωρίζει ότι αυτή η τεχνολογία είναι εκεί έξω.”

Το Υπουργείο Εσωτερικής Ασφάλειας είπε ότι αυτά τα σενάρια «αναμφίβολα θα αυξηθούν καθώς το κόστος και άλλοι πόροι που απαιτούνται για την παραγωγή χρησιμοποιήσιμων deep fakes ταυτόχρονα μειώνονται». Για να αποφύγετε το θύμα, το DHS συνιστά να καλέσετε το άτομο που υποτίθεται ότι ζήτησε χρήματα για να επαληθεύσει και να ενημερωθεί για τα κοινά αιτήματα απάτης, τα οποία περιλαμβάνουν «ζήτηση από τα θύματα να σύρουν χρήματα, να στείλουν κρυπτονομίσματα ή να αγοράσουν δωροκάρτες και να τους δώσουν τους αριθμούς καρτών και PIN.”


gizmodo.com



You might also like


Leave A Reply



Cancel Reply

Your email address will not be published.