Αυτό το τηλεφώνημα έκτακτης ανάγκης από ένα αγαπημένο πρόσωπο θα μπορούσε στην πραγματικότητα να είναι απατεώνες που χρησιμοποιούν τεχνητή νοημοσύνη – πώς να παραμείνετε ασφαλείς



Εργαλεία AI όπως

ChatGPT

,

Microsoft Copilot

και

Google Bard

μπορεί να είναι αρκετά χρήσιμη, αλλά υπάρχει και μια πιο σκοτεινή πλευρά σε αυτήν την αναδυόμενη τεχνολογία για την οποία τώρα πρέπει να ανησυχείτε.

Ενώ τόσο οι

όσο και οι απλοί άνθρωποι έχουν αρχίσει να χρησιμοποιούν την τεχνητή νοημοσύνη για να διευκολύνουν τα πράγματα, το ίδιο ισχύει και για τους απατεώνες. Εκτός από το γράψιμο πιο πειστικό

ηλεκτρονικά μηνύματα ηλεκτρονικού ψαρέματος (phishing).

οι απατεώνες χρησιμοποιούν τώρα AI για να δημιουργήσουν

deepfakes

τις φωνές των αγαπημένων προσώπων για να χρησιμοποιήσουν στις επιθέσεις τους.

Εκτός από τακτικά

κλήσεις απάτης

, τώρα πρέπει να είστε σε επιφυλακή για κλήσεις που φαίνεται να προέρχονται από φίλο ή μέλος της οικογένειας. Αν και η αμφισβήτηση της νομιμότητας μιας τηλεφωνικής κλήσης σε περίπτωση έκτακτης ανάγκης μπορεί να φαίνεται αγενής, κάτι τέτοιο θα μπορούσε να σας αποτρέψει από το να πέσετε θύμα ενός

υ γύρου απατών «Έπαθα ατύχημα» που γίνονται όλο και πιο δημοφιλείς λόγω των εξελίξεων στην τεχνητή νοημοσύνη.

Η καλύτερη τεχνητή νοημοσύνη δημιουργεί πιο πειστικά ψεύτικα

Σε ένα νέο


ανάρτηση


,



πηγαίνει σε περισσότερες λεπτομέρειες για μια ιστορία στο


San Francisco Chronicle


σχετικά με μια οικογένεια που παραλίγο να μεταφερθεί στις καθαρίστριες από μια από αυτές τις απάτες με τεχνητή νοημοσύνη.

Η οικογένεια έλαβε ένα τηλεφώνημα που φαινόταν να προέρχεται από τον γιο τους στο οποίο είπε ότι είχε ένα τροχαίο ατύχημα και έβλαψε μια έγκυο γυναίκα. Όπως επισημαίνει η Malwarebytes, αυτού του είδους οι απάτες γίνονται όλο και πιο συνηθισμένοι και εκτός από ένα αυτοκινητιστικό ατύχημα, η γνωστή φωνή στην άλλη άκρη του τηλεφώνου μπορεί να είχε καταλήξει απροσδόκητα στο νοσοκομείο ή να είχε υποστεί κάποιο άλλο είδος τραγωδίας.

Όπως ακριβώς και με

διαδικτυακές απάτες

αυτή η στρατηγική χρησιμοποιείται για να

δημιουργήσει την αίσθηση του επείγοντος

έτσι ώστε τα πιθανά θύματα να δράσουν γρήγορα προτού έχουν την ευκαιρία να σκεφτούν πάρα πολύ για το τι πραγματικά συμβαίνει. Πριν από χρόνια, αυτού του είδους οι απάτες ήταν εύκολο να εντοπιστούν, αλλά αυτό δεν ισχύει πλέον, καθώς η τεχνητή νοημοσύνη έχει γίνει γρήγορα πολύ πιο προηγμένη.

Τώρα, είναι πολύ εύκολο για τους απατεώνες να τραβήξουν ένα κλιπ από ένα βίντεο στα μέσα κοινωνικής δικτύωσης και να παραποιήσουν πειστικά τη φωνή ενός αγαπημένου προσώπου. Για να κάνουν τα πράγματα χειρότερα, το

Εργαλεία AI που χρησιμοποιούνται για την παραποίηση φωνών

«Είναι διαθέσιμα είτε στο δημόσιο τομέα δωρεάν, είτε με πολύ χαμηλό κόστος», σύμφωνα με τον ειδικό πράκτορα του FBI Robert Tripp που μίλησε με την San Francisco Chronicle.

Μετά από αυτή την αρχική κλήση για το ατύχημα, υπήρξε μια δεύτερη κλήση στην οποία κάποιος που υποδυόταν τον νόμιμο εκπρόσωπο του εν λόγω γιου ζήτησε χρήματα για εγγύηση. Ευτυχώς, όμως, η οικογένεια υποψιάστηκε όταν αυτός ο λεγόμενος

τους είπε ότι θα έστελνε έναν κούριερ για να παραλάβει τα χρήματα της εγγύησης.

Πώς να μείνετε ασφαλείς από τηλεφωνικές απάτες


(Πίστωση εικόνας: Shutterstock)

Οι κλήσεις απάτης με τεχνητή νοημοσύνη δεν θα πάνε πουθενά σύντομα. Ως εκ τούτου, πρέπει να μάθετε πώς να αναγνωρίζετε, ενώ δυσκολεύετε τους απατεώνες να σας μιμηθούν, προκειμένου να αποτρέψετε τους δικούς σας φίλους και την οικογένειά σας από το να πέσουν σε αυτές τις απάτες.

Για αρχή, δεν πρέπει να απαντάτε σε τηλεφωνικές κλήσεις από αριθμούς που δεν αναγνωρίζετε ή κλήσεις από ιδιωτικούς αριθμούς. Εάν περιμένετε μια σημαντική κλήση και απαντάτε σε μια κλήση από έναν τέτοιο αριθμό, λάβετε αυτό που λέει το άτομο στην άλλη άκρη με λίγο αλάτι. Ομοίως, δεν πρέπει ποτέ να παρέχετε προσωπικές ή οικονομικές πληροφορίες σε κάποιον που δεν γνωρίζετε μέσω τηλεφώνου.

Εάν τελικά λάβετε μία από αυτές τις κλήσεις, είναι καλή ιδέα να επικοινωνήσετε με το εν λόγω μέλος της οικογένειας ή το αγαπημένο σας πρόσωπο για να

ληθεύσετε ότι πραγματικά βρίσκεται σε κατάσταση έκτακτης ανάγκης. Ωστόσο, εάν δεν μπορείτε να τους προσεγγίσετε απευθείας, θα πρέπει στη συνέχεια να προσπαθήσετε να καλέσετε κάποιον άλλο που μπορεί να γνωρίζει πού βρίσκονται.

Για να αποτρέψετε άλλους να πέσουν θύματα αυτού του τύπου απάτης, θα θελήσετε επίσης να ειδοποιήσετε αμέσως την αστυνομία. Για όσους βρίσκονται στις ΗΠΑ, μπορείτε να απευθυνθείτε απευθείας στο FBI για να αναφέρετε ύποπτες δραστηριότητες στο γραφείο του γραφείου


Κέντρο καταγγελιών για εγκλήματα στο Διαδίκτυο


(IC3). Εδώ, μπορείτε να υποβάλετε μια καταγγελία και να δείτε τις Συχνές Ερωτήσεις του FBI για περισσότερες πληροφορίες σχετικά με όλους τους διαφορετικούς τύπους απάτης που κυκλοφορούν αυτήν τη στιγμή.

Όπως και άλλα εργαλεία, το AI μπορεί να χρησιμοποιηθεί τόσο για καλό όσο και για κακό. Ας ελπίσουμε, ωστόσο, οι επιχειρήσεις και οι κυβερνήσεις να βρουν έναν τρόπο να χρησιμοποιήσουν τα δικά τους εργαλεία τεχνητής νοημοσύνης για να αντιμετωπίσουν τους εγκληματίες του κυβερνοχώρου πίσω από αυτές τις απάτες.


Περισσότερα από το Tom’s Guide


VIA:

TomsGuide.com


Αυτό το τηλεφώνημα έκτακτης ανάγκης από ένα αγαπημένο πρόσωπο θα μπορούσε στην πραγματικότητα να είναι απατεώνες που χρησιμοποιούν τεχνητή νοημοσύνη - πώς να παραμείνετε ασφαλείς, Αυτό το τηλεφώνημα έκτακτης ανάγκης από ένα αγαπημένο πρόσωπο θα μπορούσε στην πραγματικότητα να είναι απατεώνες που χρησιμοποιούν τεχνητή νοημοσύνη – πώς να παραμείνετε ασφαλείς, TechWar.GR


Leave A Reply



Cancel Reply

Your email address will not be published.