Οι Meta, Discord και άλλοι αποκαλύπτουν προσπάθειες για την καταπολέμηση της σεξουαλικής εκμετάλλευσης και κακοποίησης παιδιών στο διαδίκτυο
Η Tech Coalition, η ομάδα εταιρειών τεχνολογίας που αναπτύσσουν προσεγγίσεις και πολιτικές για την καταπολέμηση της σεξουαλικής εκμετάλλευσης και κακοποίησης παιδιών στο διαδίκτυο (CSEA), ανακοίνωσε σήμερα την έναρξη ενός νέου προγράμματος, το Lantern, που έχει σχεδιαστεί για να επιτρέπει στις
πλατφόρμες
κοινωνικών μέσων να μοιράζονται «σήματα» σχετικά με τη δραστηριότητα και λογαριασμούς που ενδέχεται να παραβιάζουν τις πολιτικές τους έναντι της CSEA.
Οι πλατφόρμες που συμμετέχουν στο Lantern — οι οποίες μέχρι στιγμής περιλαμβάνουν
Discord
, Google, Mega, Meta, Quora, Roblox,
Snap
και Twitch — μπορούν να ανεβάσουν σήματα στο Lantern σχετικά με δραστηριότητα που παραβιάζει τους όρους τους, The Tech Coalition
εξηγεί
. Τα σήματα μπορεί να περιλαμβάνουν πληροφορίες που συνδέονται με λογαριασμούς που παραβιάζουν πολιτικές, όπως διευθύνσεις ηλεκτρονικού ταχυδρομείου και ονόματα χρήστη ή λέξεις-κλειδιά που χρησιμοποιούνται για
γαμπρός
καθώς και αγορά και πώληση υλικού σεξουαλικής κακοποίησης παιδιών (CSAM). Άλλες πλατφόρμες που συμμετέχουν μπορούν στη συνέχεια να επιλέξουν από τα διαθέσιμα σήματα στο Lantern, να εκτελέσουν τα επιλεγμένα σήματα στην πλατφόρμα τους, να ελέγξουν οποιαδήποτε δραστηριότητα και
περιεχόμενο
στην επιφάνεια των σημάτων και να λάβουν τις κατάλληλες ενέργειες.
Κατά τη διάρκεια ενός πιλοτικού προγράμματος, η The Tech Coalition, η οποία ισχυρίζεται ότι το Lantern βρίσκεται υπό ανάπτυξη για δύο χρόνια με συνεχή ανατροφοδότηση από εξωτερικούς «ειδικούς», λέει ότι η υπηρεσία φιλοξενίας αρχείων Mega μοιράστηκε διευθύνσεις URL που χρησιμοποίησε η Meta για να αφαιρέσει περισσότερα από 10.000 προφίλ και σελίδες στο Facebook και λογαριασμούς
Instagram
.
Αφού ο αρχικός όμιλος εταιρειών στην «πρώτη φάση» του Lantern αξιολογήσει το πρόγραμμα, θα είναι ευπρόσδεκτοι να συμμετάσχουν επιπλέον συμμετέχοντες, λέει η Tech Coalition.
Συντελεστές εικόνας:
Φανός
“Επειδή [child sexual abuse] εκτείνεται σε όλες τις πλατφόρμες, σε πολλές περιπτώσεις, οποιαδήποτε εταιρεία μπορεί να δει μόνο ένα κομμάτι της βλάβης που αντιμετωπίζει ένα θύμα. Για να αποκαλυφθεί η πλήρης εικόνα και να ληφθούν τα κατάλληλα μέτρα, οι εταιρείες πρέπει να συνεργαστούν», γράφει η Tech Coalition σε μια ανάρτηση στο blog. «Δεσμευόμαστε να συμπεριλάβουμε το Lantern στην ετήσια έκθεση διαφάνειας του Tech Coalition και να παρέχουμε στις συμμετέχουσες εταιρείες συστάσεις για το πώς να ενσωματώσουν τη συμμετοχή τους στο πρόγραμμα στις δικές τους αναφορές διαφάνειας».
Παρά τις διαφωνίες σχετικά με τον τρόπο αντιμετώπισης του CSEA χωρίς να καταπνίγεται το απόρρητο στο διαδίκτυο, υπάρχει ανησυχία για το αυξανόμενο εύρος του υλικού κακοποίησης παιδιών — τόσο πραγματικό όσο και
παραποιημένος
— κυκλοφορεί τώρα στο διαδίκτυο. Το 2022, το Εθνικό Κέντρο για τα Εξαφανισμένα και Εκμεταλλευόμενα Παιδιά έλαβε περισσότερες από 32 εκατομμύρια αναφορές για CSAM.
Μια πρόσφατη RAINN και YouGov
επισκόπηση
διαπίστωσε ότι το 82% των γονέων πιστεύει ότι η βιομηχανία της τεχνολογίας, ιδιαίτερα οι εταιρείες μέσων κοινωνικής δικτύωσης, πρέπει να κάνουν περισσότερα για να προστατεύσουν τα παιδιά από τη σεξουαλική κακοποίηση και εκμετάλλευση στο διαδίκτυο. Αυτό ώθησε τους νομοθέτες σε δράση — έστω και με
μικτός
Αποτελέσματα.
Τον Σεπτέμβριο, οι γενικοί εισαγγελείς και στις 50 πολιτείες των ΗΠΑ, συν τέσσερα εδάφη, υπέγραψαν
ένα γράμμα
καλώντας το Κογκρέσο να αναλάβει δράση κατά του CSAM με δυνατότητα AI. Εν τω μεταξύ, η Ευρωπαϊκή Ένωση πρότεινε να επιβάλει στις εταιρείες τεχνολογίας να κάνουν σάρωση για CSAM ενώ ταυτοποιούν και αναφέρουν δραστηριότητα περιποίησης που στοχεύει παιδιά στις πλατφόρμες τους.
VIA:
techcrunch.com