Πώς να ενημερώσετε τα παιδιά σας για τα deepfakes στο πορνό και τις ψεύτικες εικόνες
Εάν η μέρα δεν έχει φτάσει ακόμα, έρχεται: Πρέπει να μιλήσετε στο παιδί σας για ξεκάθαρα deepfakes.
Το πρόβλημα μπορεί να φαινόταν αφηρημένο μέχρι που οι ψεύτικες πορνογραφικές εικόνες της Taylor Swift, που δημιουργήθηκαν από την τεχνητή νοημοσύνη, έγιναν
viral
στην πλατφόρμα κοινωνικής δικτύωσης X/Twitter. Τώρα το ζήτημα απλά δεν μπορεί να αγνοηθεί, λένε οι ειδικοί στην ασφάλεια των παιδιών στο διαδίκτυο.
«Όταν συμβεί αυτό [Swift]νομίζω ότι τα παιδιά και οι γονείς αρχίζουν να συνειδητοποιούν ότι κανείς δεν έχει ανοσία από αυτό», λέει η Laura Ordoñez, εκτελεστική συντάκτρια και επικεφαλής ψηφιακών μέσων και οικογένειας στην Common Sense Media.
Είτε εξηγείτε την έννοια του deepfakes και της κακοποίησης εικόνων AI, είτε μιλάτε για τον πόνο που προκαλούν τέτοιες εικόνες στα θύματα είτε βοηθάτε το παιδί σας να αναπτύξει τις δεξιότητες κριτικής σκέψης για να λάβει ηθικές αποφάσεις σχετικά με τα deepfakes, υπάρχουν πολλά που μπορούν και πρέπει να καλύψουν οι γονείς. σε συνεχείς συζητήσεις για το θέμα.
ΔΕΙΤΕ ΕΠΙΣΗΣ:
Τι να κάνετε αν κάποιος σας κάνει deepfake
Πριν ξεκινήσετε, ορίστε τι πρέπει να γνωρίζετε:
1. Δεν χρειάζεται να είστε ειδικός στα deepfakes για να μιλήσετε για αυτά.
Adam Dodge, ιδρυτής της
The Tech-Savvy Parent
λέει ότι οι γονείς που νιώθουν ότι πρέπει να κατανοήσουν διεξοδικά τα deepfakes πριν από μια συνομιλία με το παιδί τους, δεν χρειάζεται να ανησυχούν μήπως φανούν ή γίνουν ειδικοί.
Αντίθετα, το μόνο που απαιτείται είναι μια βασική κατανόηση της ιδέας ότι το λογισμικό και οι αλγόριθμοι που υποστηρίζονται από τεχνητή νοημοσύνη καθιστούν συγκλονιστικά εύκολη τη δημιουργία ρεαλιστικών ρητών ή πορνογραφικών deepfakes και ότι η πρόσβαση σε τέτοια τεχνολογία είναι εύκολη στο διαδίκτυο. Στην πραγματικότητα, παιδιά ηλικίας από μαθητές δημοτικού μπορεί να συναντήσουν εφαρμογές ή λογισμικό με αυτή τη δυνατότητα και να τα χρησιμοποιήσουν για να δημιουργήσουν ψεύτικα αρχεία με μικρές τεχνικές προκλήσεις ή εμπόδια.
“Αυτό που λέω στους γονείς είναι: “Κοιτάξτε, πρέπει να καταλάβετε πόσο νωρίς και συχνά τα παιδιά εκτίθενται σε αυτήν την τεχνολογία, ότι συμβαίνει νωρίτερα από ό,τι καταλαβαίνετε και να εκτιμήσετε πόσο επικίνδυνη είναι”.
Ο Dodge λέει ότι οι γονείς πρέπει να είναι προετοιμασμένοι να αντιμετωπίσουν τις πιθανότητες ότι το παιδί τους θα στοχοποιηθεί από την τεχνολογία. ότι θα δουν ακατάλληλο
περιεχόμενο
. ή ότι θα συμμετάσχουν στη δημιουργία ή την κοινή χρήση ψεύτικων εικόνων.
2. Κάντε το μια συζήτηση, όχι μια διάλεξη.
Εάν ανησυχείτε αρκετά από αυτές τις πιθανότητες, προσπαθήστε να αποφύγετε να βιαστείτε σε μια βιαστική συζήτηση για τα deepfakes. Αντίθετα, ο Ordoñez συνιστά να φέρετε το θέμα με ανοιχτό, χωρίς κριτική τρόπο, ρωτώντας το παιδί σας τι γνωρίζει ή τι έχει ακούσει για τα deepfakes.
Προσθέτει ότι είναι σημαντικό να σκεφτόμαστε την κατάχρηση που βασίζεται σε εικόνες AI ως μια μορφή διαδικτυακής χειραγώγησης που υπάρχει στο ίδιο φάσμα με την παραπληροφόρηση ή την παραπληροφόρηση. Με αυτό το πλαίσιο, ο στοχασμός στα deepfakes γίνεται άσκηση κριτικής σκέψης.
Ο Ordoñez λέει ότι οι γονείς μπορούν να βοηθήσουν το παιδί τους
μάθετε τα σημάδια ότι οι εικόνες έχουν υποστεί χειραγώγηση
. Αν και η ταχεία εξέλιξη της τεχνητής νοημοσύνης σημαίνει ότι ορισμένα από αυτά τα ενδεικτικά σημάδια δεν εμφανίζονται πλέον, ο Ordoñez λέει ότι είναι ακόμα χρήσιμο να επισημάνουμε ότι οποιοδήποτε βαθύ ψεύτικο (όχι μόνο το ρητό είδος) μπορεί να είναι αναγνωρίσιμο μέσω του αποχρωματισμού του προσώπου, του φωτισμού που φαίνεται εκτός και της θολότητας όπου ο λαιμός και τα μαλλιά συναντιούνται.
Οι γονείς μπορούν επίσης να μάθουν δίπλα στο παιδί τους, λέει ο Ordoñez. Αυτό μπορεί να περιλαμβάνει την ανάγνωση και τη συζήτηση για μη ρητό ψεύτικο περιεχόμενο που δημιουργείται από AI, όπως το τραγούδι
Καρδιά στο μανίκι μου
,
κυκλοφόρησε τον Μάιο του 2023, αυτό
ισχυρίστηκε ότι χρησιμοποιεί εκδόσεις AI των φωνών
του Drake και του The Weeknd. Αν και αυτή η ιστορία έχει σχετικά χαμηλά διακυβεύματα για τα παιδιά, μπορεί να προκαλέσει μια ουσιαστική συζήτηση σχετικά με το πώς μπορεί να αισθάνεστε όταν χρησιμοποιείτε τη φωνή σας χωρίς τη συγκατάθεσή σας.
Οι γονείς μπορεί
κάντε ένα διαδικτυακό κουίζ
με το παιδί τους που ζητά από τον συμμετέχοντα να αναγνωρίσει σωστά ποιο πρόσωπο είναι πραγματικό και ποιο δημιουργείται από την τεχνητή νοημοσύνη, ένας άλλος τρόπος χαμηλού πονταρίσματος για να αντιμετωπίσουμε μαζί πόσο εύκολα οι εικόνες που δημιουργούνται από AI μπορούν να εξαπατήσουν τον θεατή.
Ο σκοπός αυτών των δραστηριοτήτων είναι να διδάξετε στο παιδί σας πώς να ξεκινά έναν συνεχή διάλογο και να αναπτύσσει τις δεξιότητες κριτικής σκέψης που σίγουρα θα δοκιμαστούν καθώς αντιμετωπίζει ρητά deepfakes και την τεχνολογία που τα δημιουργεί.
3. Βάλτε την περιέργεια του παιδιού σας για τα deepfakes στο σωστό πλαίσιο.
Αν και τα ρητά deepfakes ισοδυναμούν με ψηφιακή κακοποίηση και βία κατά του θύματός τους, το παιδί σας μπορεί να μην το κατανοήσει πλήρως. Αντίθετα, μπορεί να είναι περίεργοι για την τεχνολογία, ακόμη και πρόθυμοι να τη δοκιμάσουν.
Ο Dodge λέει ότι ενώ αυτό είναι κατανοητό, οι γονείς βάζουν συνήθως λογικά όρια στην περιέργεια των παιδιών τους. Το
αλκοόλ
, για παράδειγμα, φυλάσσεται μακριά τους. Οι ταινίες με βαθμολογία R είναι εκτός ορίων μέχρι να φτάσουν σε μια ορισμένη ηλικία. Δεν τους επιτρέπεται να οδηγούν χωρίς τις κατάλληλες οδηγίες και εμπειρία.
Οι γονείς θα πρέπει να σκεφτούν την τεχνολογία deepfake με παρόμοιο τρόπο, λέει ο Dodge:
«Δεν θέλετε να τιμωρήσετε τα παιδιά επειδή είναι περίεργα, αλλά εάν έχουν αφιλτράριστη πρόσβαση στο διαδίκτυο και τεχνητή νοημοσύνη, αυτή η περιέργεια θα τα οδηγήσει σε μερικούς επικίνδυνους δρόμους».
4. Βοηθήστε το παιδί σας να εξερευνήσει τις συνέπειες των deepfakes.
Τα παιδιά μπορεί να βλέπουν τα μη ρητά deepfakes ως μια μορφή ψυχαγωγίας. Τα Tweens και οι έφηβοι μπορεί ακόμη και να πιστεύουν εσφαλμένα το επιχείρημα ορισμένων: ότι τα πορνογραφικά deepfakes δεν είναι επιβλαβή επειδή δεν είναι αληθινά.
Ωστόσο, μπορεί να πειστούν να δουν τα ρητά deepfakes ως κατάχρηση που βασίζεται στην εικόνα της τεχνητής νοημοσύνης, όταν η συζήτηση ενσωματώνει έννοιες όπως η συγκατάθεση, η ενσυναίσθηση, η ευγένεια και ο εκφοβισμός. Ο Dodge λέει ότι η επίκληση αυτών των ιδεών κατά τη συζήτηση των deepfakes μπορεί να στρέψει την προσοχή του παιδιού στο θύμα.
Εάν, για παράδειγμα, ένας έφηβος ξέρει να ζητήσει άδεια πριν πάρει ένα φυσικό αντικείμενο από έναν φίλο ή συμμαθητή του, το ίδιο ισχύει και για ψηφιακά αντικείμενα, όπως φωτογραφίες και βίντεο που δημοσιεύονται στα μέσα κοινωνικής δικτύωσης. Η χρήση αυτών των ψηφιακών αρχείων για τη δημιουργία ενός γυμνού deepfake κάποιου άλλου δεν είναι ένα αβλαβές αστείο ή πείραμα, αλλά ένα είδος κλοπής που μπορεί να οδηγήσει σε βαθιά ταλαιπωρία για το θύμα.
Ομοίως, ο Dodge λέει ότι όπως ένα νεαρό άτομο δεν θα επιτέθηκε σε κάποιον στο δρόμο ασυνήθιστα, δεν ευθυγραμμίζεται με τις αξίες του να επιτίθεται σε κάποιον εικονικά.
«Αυτά τα θύματα δεν είναι κατασκευασμένα ή ψεύτικα», λέει ο Dodge. «Αυτοί είναι πραγματικοί άνθρωποι».
Οι γυναίκες, ιδιαίτερα
έχουν στοχοποιηθεί από τεχνολογία που δημιουργεί ρητά deepfakes.
Σε γενικές γραμμές, ο Ordoñez λέει ότι οι γονείς μπορούν να μιλήσουν για το τι σημαίνει να είσαι καλός ψηφιακός πολίτης, βοηθώντας το παιδί τους να σκεφτεί αν είναι εντάξει να παραπλανήσει τους ανθρώπους, τις συνέπειες των deepfakes και πώς μπορεί να δει ή να είναι θύμα των εικόνων. κάντε τους άλλους να αισθάνονται.
5.
Μοντελοποιήστε τη συμπεριφορά που θέλετε να δείτε.
Ο Ordoñez σημειώνει ότι οι ενήλικες, συμπεριλαμβανομένων των γονέων, δεν έχουν ανοσία στην ανυπόμονη συμμετοχή στην τελευταία ψηφιακή
τάση
χωρίς να σκεφτούν τις συνέπειες. Πάρτε, για παράδειγμα, πόσο γρήγορα άρχισαν οι ενήλικες να κάνουν εντυπωσιακές αυτοπροσωπογραφίες με τεχνητή νοημοσύνη χρησιμοποιώντας την εφαρμογή Lensa στα τέλη του 2022. Πέρα από τη διαφημιστική εκστρατεία, υπήρχαν σημαντικές ανησυχίες σχετικά με το απόρρητο, τα δικαιώματα των χρηστών και τη δυνατότητα της εφαρμογής να κλέψει ή να εκτοπίσει καλλιτέχνες.
Στιγμές όπως αυτές είναι μια ιδανική στιγμή για τους γονείς να αναλογιστούν τις δικές τους ψηφιακές πρακτικές και να διαμορφώσουν τη συμπεριφορά που θα ήθελαν να υιοθετήσουν τα παιδιά τους, λέει ο Ordoñez. Όταν οι γονείς σταματούν για να σκεφτούν κριτικά τις διαδικτυακές τους επιλογές και μοιράζονται τη γνώση αυτής της εμπειρίας με το παιδί τους, δείχνει πώς μπορούν να υιοθετήσουν την ίδια προσέγγιση.
6. Χρησιμοποιήστε γονικούς ελέγχους, αλλά μην ποντάρετε σε αυτούς.
Όταν οι γονείς ακούν για τους κινδύνους που εγκυμονούν τα deepfakes, ο Ordoñez λέει ότι συχνά θέλουν μια «γρήγορη λύση» για να κρατήσουν το παιδί τους μακριά από τις εφαρμογές και το λογισμικό που αναπτύσσουν την τεχνολογία.
Η χρήση γονικών ελέγχων που περιορίζουν την πρόσβαση σε ορισμένες λήψεις και ιστότοπους είναι σημαντική, λέει ο Dodge. Ωστόσο, τέτοιοι έλεγχοι δεν είναι σίγουροι. Τα παιδιά μπορούν και θα βρουν έναν τρόπο να παρακάμψουν αυτούς τους περιορισμούς, ακόμα κι αν δεν συνειδητοποιούν τι κάνουν.
Επιπλέον, ο Dodge λέει ότι ένα παιδί μπορεί να δει deepfakes ή να συναντήσει την τεχνολογία στο σπίτι ενός φίλου ή στην κινητή συσκευή κάποιου άλλου. Αυτός είναι ο λόγος για τον οποίο εξακολουθεί να είναι κρίσιμο να κάνουμε συζητήσεις σχετικά με την κατάχρηση εικόνας με τεχνητή νοημοσύνη, “ακόμα κι αν θέτουμε ισχυρούς περιορισμούς μέσω γονικού ελέγχου ή αφαιρούμε συσκευές τη νύχτα”, λέει ο Dodge.
7. Ενδυναμώστε αντί να φοβάστε.
Η προοπτική του παιδιού σας να πληγώσει τον συνομήλικό του με κακοποίηση που βασίζεται σε εικόνες τεχνητής νοημοσύνης ή να γίνει το ίδιο θύμα της, είναι τρομακτική. Αλλά ο Ordoñez προειδοποιεί να μην χρησιμοποιείτε τακτικές εκφοβισμού ως τρόπο αποθάρρυνσης ενός παιδιού ή εφήβου από το να ασχοληθεί με την τεχνολογία και το περιεχόμενο.
Όταν μιλάτε σε νεαρά κορίτσια, ειδικότερα, των οποίων οι φωτογραφίες και τα βίντεο των μέσων κοινωνικής δικτύωσης μπορεί να χρησιμοποιηθούν για τη δημιουργία σαφών deepfakes, ο Ordoñez προτείνει να τους μιλήσετε για το πώς αισθάνονται να δημοσιεύουν εικόνες του εαυτού τους και τους πιθανούς κινδύνους. Αυτές οι συζητήσεις δεν πρέπει να κατηγορούν τα κορίτσια που θέλουν να συμμετέχουν στα μέσα κοινωνικής δικτύωσης. Ωστόσο, η συζήτηση για τους κινδύνους μπορεί να βοηθήσει τα κορίτσια να σκεφτούν τις δικές τους ρυθμίσεις απορρήτου.
Αν και δεν υπάρχει καμία εγγύηση ότι μια φωτογραφία ή ένα βίντεο τους δεν θα χρησιμοποιηθεί εναντίον τους κάποια στιγμή, μπορούν να αισθάνονται ενδυναμωμένοι κάνοντας σκόπιμες επιλογές για το τι μοιράζονται.
Και όλοι οι έφηβοι και οι έφηβοι μπορούν να επωφεληθούν από τη γνώση ότι η επαφή με τεχνολογία ικανή να κάνει ξεκάθαρα deepfakes, σε μια αναπτυξιακή περίοδο που είναι πολύ ευάλωτοι στη λήψη βιαστικών αποφάσεων, μπορεί να οδηγήσει σε επιλογές που βλάπτουν σοβαρά τους άλλους, λέει ο Ordoñez.
Η ενθάρρυνση των νέων να μάθουν πώς να κάνουν πίσω και να αναρωτιούνται πώς νιώθουν προτού κάνουν κάτι όπως να κάνουν ένα deepfake μπορεί να κάνει τεράστια διαφορά.
«Όταν κάνεις πίσω, [our kids] έχει αυτή την επίγνωση, απλά χρειάζεται να ενδυναμωθεί και να υποστηριχθεί και να καθοδηγηθεί προς τη σωστή κατεύθυνση», λέει ο Ordoñez.
Θέματα
VIA:
mashable.com

