Η Meta προειδοποίησε ότι αντιμετωπίζει «βαριές κυρώσεις» στην ΕΕ εάν δεν διορθώσει προβλήματα παιδικής προστασίας στο Instagram

Η Ευρωπαϊκή Ένωση απηύθυνε μια ωμή προειδοποίηση στη

, λέγοντας ότι πρέπει να καθαρίσει γρήγορα την πράξη της για την προστασία των παιδιών διαφορετικά θα αντιμετωπίσει τον κίνδυνο «βαρέων κυρώσεων».

Η προειδοποίηση ακολουθεί μια αναφορά της

Wall Street Journal

εχθές. Το WSJ συνεργάστηκε με ερευνητές στο Πανεπιστήμιο του Στάνφορντ και στο Πανεπιστήμιο της Μασαχουσέτης Άμχερστ για να κρύψει και να αποκαλύψει ένα δίκτυο λογαριασμών

που δημιουργήθηκε για να συνδέει παιδεραστές με πωλητές υλικού σεξουαλικής κακοποίησης παιδιών (CSAM) στην κύρια πλατφόρμα κοινωνικής δικτύωσης.


Ερευνα

από τον Stanford βρήκε επίσης ότι ο ιστότοπος κοινής χρήσης φωτογραφιών που ανήκει στη Meta είναι η πιο σημαντική πλατφόρμα για τους πωλητές αυτοπαραγωγής CSAM (SG-CSAM), θεωρώντας τους αλγόριθμους συστάσεων του Instagram ως «κλειδί λόγο για την αποτελεσματικότητα της πλατφόρμας στη διαφήμιση SG-CSAM». .

Σε ένα

τιτίβισμα

πυρπολώντας τον γίγαντα της adtech σήμερα το πρωί, ο Επίτροπος Εσωτερικής Αγοράς της ΕΕ, Τιερί Μπρετόν, είπε ότι ο «εθελοντικός κώδικας της εταιρείας για την προστασία των παιδιών φαίνεται να μην λειτουργεί», προσθέτοντας: «Ο Μαρκ Ζούκερμπεργκ πρέπει τώρα να εξηγήσει και να λάβει άμεσα μέτρα».

Ο Μπρετόν είπε ότι θα αυξήσει την ασφάλεια των παιδιών σε μια συνάντηση με τον Ζούκερμπεργκ στα κεντρικά γραφεία της Μέτα στις ΗΠΑ αργότερα αυτό το μήνα — και επιβεβαίωσε ότι η ΕΕ θα εφαρμόσει αυστηρή προθεσμία για το θέμα λέγοντας ότι αναμένει από τον Μέτα να αποδείξει ότι εφαρμόζονται αποτελεσματικά μέτρα μετά 25 Αυγούστου, όταν η εταιρεία είναι νομικά υποχρεωμένη να συμμορφώνεται με τον νόμο της ΕΕ για τις ψηφιακές υπηρεσίες (DSA).

Τα πρόστιμα για μη συμμόρφωση με την DSA, η οποία ορίζει κανόνες για τον τρόπο με τον οποίο οι πλατφόρμες πρέπει να αντιμετωπίζουν το παράνομο περιεχόμενο, όπως το CSAM, μπορούν να κλιμακωθούν έως και το 6% του παγκόσμιου ετήσιου κύκλου εργασιών.

Τόσο το Instagram όσο και το

έχουν χαρακτηριστεί πολύ μεγάλες διαδικτυακές πλατφόρμες (γνωστές και ως VLOP) βάσει του DSA, το οποίο επιφέρει πρόσθετες υποχρεώσεις που αξιολογούν και μετριάζουν τους συστημικούς κινδύνους που συνδέονται με τις πλατφόρμες τους, συμπεριλαμβανομένων εκείνων που προέρχονται από συστήματα και αλγόριθμους συστάσεων. Επομένως, το επίπεδο κινδύνου που αντιμετωπίζει η Meta εδώ φαίνεται σημαντικό.

«Μετά τις 25 Αυγούστου, υπό το #DSA, η Meta πρέπει να μας επιδείξει μέτρα διαφορετικά θα αντιμετωπίσει βαριές κυρώσεις», προειδοποίησε ο Breton στο tweet, το οποίο επισημαίνει τόσο την έκθεση της WSJ όσο και

Ερευνητική εργασία του Στάνφορντ

εξετάζοντας τη δραστηριότητα CSAM σε μια σειρά από μεγάλες πλατφόρμες κοινωνικής δικτύωσης, καταλήγοντας στο συμπέρασμα ότι «το Instagram είναι αυτή τη στιγμή η πιο σημαντική πλατφόρμα για αυτά τα δίκτυα, με χαρακτηριστικά που βοηθούν στη σύνδεση αγοραστών και πωλητών».

Η απειλή του Μπρετόν για «βαριές κυρώσεις» εάν δεν ενεργήσει θα μπορούσε να μεταφραστεί σε δισεκατομμύρια (πληθυντικός) δολάρια σε πρόστιμα για τη Meta στην ΕΕ.

Απευθυνθήκαμε στο Meta για μια απάντηση στην προειδοποίηση του Breton σχετικά με την προστασία των παιδιών, αλλά τη στιγμή που γράφονταν αυτά τα στοιχεία δεν είχε απαντήσει.

Το Instagram βρήκε να προτείνει πωλητές CSAM

Η έρευνα του Journal τόνισε τον ρόλο που διαδραμάτισαν οι αλγόριθμοι συστάσεων του Instagram στη σύνδεση των παιδεραστών με τους πωλητές CSAM.

«Το Instagram συνδέει τους παιδόφιλους και τους καθοδηγεί σε πωλητές περιεχομένου μέσω συστημάτων συστάσεων που διαπρέπουν στο να συνδέουν αυτούς που μοιράζονται εξειδικευμένα ενδιαφέροντα, ανακάλυψαν το περιοδικό και οι ακαδημαϊκοί ερευνητές», έγραψε.

«Αν και δεν φαίνονται για τους περισσότερους στην πλατφόρμα, οι σεξουαλικοί λογαριασμοί στο Instagram είναι θρασύς για το ενδιαφέρον τους. Οι ερευνητές ανακάλυψαν ότι το Instagram επέτρεπε στους ανθρώπους να αναζητούν ρητά hashtags όπως #pedowhore και #preteensex και τους συνέδεε με λογαριασμούς που χρησιμοποιούσαν τους όρους για να διαφημίσουν υλικό παιδικού σεξ προς πώληση. Τέτοιοι λογαριασμοί συχνά ισχυρίζονται ότι διευθύνονται από τα ίδια τα παιδιά και χρησιμοποιούν απροκάλυπτα σεξουαλικές λαβές που ενσωματώνουν λέξεις όπως «λίγη πόρνη για σένα».

Η Meta απάντησε σε ερωτήματα που της έθεσε η WSJ πριν από τη δημοσίευση λέγοντας ότι είχε μπλοκάρει χιλιάδες hashtags που σεξουαλοποιούν παιδιά, μερικά από τα οποία η έκθεση του Journal διευκρινίζει ότι είχαν εκατομμύρια δημοσιεύσεις.

Ο τεχνολογικός γίγαντας είπε επίσης ότι είχε περιορίσει τα συστήματά του από το να προτείνουν όρους αναζήτησης σε χρήστες που είναι γνωστό ότι σχετίζονται με σεξουαλική κακοποίηση παιδιών.

Η έκθεση του WSJ περιλαμβάνει μια λήψη οθόνης ενός αναδυόμενου παραθύρου που σερβίρεται από το Instagram σε ερευνητές που συμμετείχαν στην έρευνα, όταν αναζήτησαν ένα hashtag που σχετίζεται με την παιδεραστία – το οποίο προειδοποιούσε “αυτά τα αποτελέσματα μπορεί να περιέχουν εικόνες σεξουαλικής κακοποίησης παιδιών”. Το κείμενο στην ειδοποίηση περιέγραφε επίσης τους νομικούς κινδύνους από την προβολή του CSAM, τις βλάβες που προκαλεί η σεξουαλική κακοποίηση στα παιδιά και πρότεινε πόρους για να “λάβετε εμπιστευτική βοήθεια” ή να αναφέρετε “ακατάλληλο” περιεχόμενο, προτού προσφέρει δύο επιλογές στον χρήστη: “Λήψη πόρων”. ή «Δείτε τα αποτελέσματα ούτως ή άλλως» — υποδηλώνοντας ότι η πλατφόρμα γνώριζε προβλήματα CSAM που σχετίζονται με τα hashtag, αλλά δεν είχε καταργήσει το περιεχόμενο ή ακόμη και να αποκλείσει την πρόσβαση των χρηστών σε αυτό.

Σύμφωνα με το WSJ, η Meta αφαίρεσε την επιλογή που επέτρεπε στους χρήστες να βλέπουν το ύποπτο CSAM μόνο αφού το είχαν ρωτήσει και η έκθεσή της λέει ότι η εταιρεία αρνήθηκε να εξηγήσει γιατί είχε προσφέρει μια τέτοια επιλογή εξαρχής.

Ο ενεργός ρόλος της μηχανής συστάσεων του Instagram στην ουσιαστική προώθηση των λογαριασμών πωλητών CSAM φαίνεται εξίσου ανησυχητικός, δεδομένου ότι η πλατφόρμα βρέθηκε ότι μπορεί να εντοπίσει ύποπτα CSAM – εγείροντας ερωτήματα σχετικά με το γιατί η Meta δεν χρησιμοποίησε τη συμπεριφορική επιτήρηση που αναπτύσσει στους χρήστες για να αυξήσει την αφοσίωση (και να ενισχύσει τα έσοδά του από διαφημίσεις) αντιστοιχίζοντας λογαριασμούς με περιεχόμενο που βασίζεται στον εντοπισμό παρόμοιας δραστηριότητας πλατφόρμας, προκειμένου να χαρτογραφηθεί το δίκτυο παιδεραστών και να τερματιστεί η λειτουργία του.

Σχετικά με αυτό, η Meta είπε στο WSJ ότι εργάζεται για να αποτρέψει τα συστήματά της από το να προτείνουν σε πιθανούς παιδόφιλους ενήλικες να συνδέονται μεταξύ τους ή να αλληλεπιδρούν ο ένας με το περιεχόμενο του άλλου.

Το ρεπορτάζ του περιοδικού καταγράφει επίσης περιπτώσεις όπου οι αλγόριθμοι του Instagram πρότειναν αυτόματα πρόσθετους όρους αναζήτησης για να παρακάμψουν ένα μπλοκ που η πλατφόρμα εφάρμοσε σε συνδέσμους σε μια κρυπτογραφημένη υπηρεσία μεταφοράς αρχείων, γνωστή για τη μετάδοση περιεχομένου για παιδικό σεξ.

Η αναφορά του WSJ περιγράφει επίσης πώς η προβολή μόνο ενός λογαριασμού ανήλικου πωλητή στο Instagram οδήγησε την πλατφόρμα να προτείνει στους χρήστες να βλέπουν νέους λογαριασμούς πωλήσεων CSAM.

«Μετά την αρχική σάρωση λογαριασμών της εταιρείας που τέθηκε υπόψη της από το Stanford και το Journal, η UMass’s [Brian Levine, director of the Rescue Lab] έκανε check in σε ορισμένους από τους υπόλοιπους λογαριασμούς πωλητών ανηλίκων στο Instagram. Όπως και πριν, η προβολή έστω και ενός από αυτά οδήγησε το Instagram να προτείνει νέα. Οι προτάσεις του Instagram βοήθησαν στην ανοικοδόμηση του δικτύου που το προσωπικό ασφαλείας της πλατφόρμας βρισκόταν στη μέση της προσπάθειας να διαλύσει», πρόσθεσε.


techcrunch.com



You might also like

Leave A Reply



Cancel Reply

Your email address will not be published.