Η έκθεση Stanford υποδηλώνει ότι το Mastodon έχει πρόβλημα υλικού κακοποίησης παιδιών
Ενα νέο
κανω ΑΝΑΦΟΡΑ
υποδηλώνει ότι οι χαλαρές πολιτικές ελέγχου περιεχομένου του Mastodon και άλλων αποκεντρωμένων πλατφορμών κοινωνικής δικτύωσης έχουν οδηγήσει σε πολλαπλασιασμό υλικού σεξουαλικής κακοποίησης παιδιών. Δημοσιεύτηκε το Παρατηρητήριο Διαδικτύου του Στάνφορντ
νέα έρευνα
Δευτέρα, αυτό δείχνει ότι οι αποκεντρωμένοι ιστότοποι έχουν σοβαρές ελλείψεις όσον αφορά την «υποδομή ασφάλειας των παιδιών». Δυστυχώς, αυτό δεν τις κάνει τόσο διαφορετικές από τις περισσότερες πλατφόρμες στο κανονικό Διαδίκτυο.
Όταν μιλάμε για τον «αποκεντρωμένο» ιστό, μιλάμε φυσικά για «ομοσπονδιακά» μέσα κοινωνικής δικτύωσης ή «
το Fediverse
”—ο χαλαρός αστερισμός των πλατφορμών που αποφεύγουν την κεντρική ιδιοκτησία και διακυβέρνηση για ένα διαδραστικό μοντέλο που αντ’ αυτού δίνει προτεραιότητα στην αυτονομία και το απόρρητο των χρηστών. Το Fediverse τρέχει με μια σειρά πρωτοκόλλων ιστού δωρεάν και ανοιχτού κώδικα που επιτρέπουν σε οποιονδήποτε να δημιουργήσει και να φιλοξενήσει κοινωνικές κοινότητες μέσω
τους δικούς τους διακομιστές ή “παρουσίες”,
όπως είναι γνωστοί. Μεταξύ των περιορισμένων πλατφορμών που απαρτίζουν αυτό το αποκεντρωμένο βασίλειο, το Mastodon είναι ένα από τα πιο δημοφιλή και ευρέως χρησιμοποιούμενα στον Ιστό. Ωστόσο, δίπλα στο συγκεντρωτικό Διαδίκτυο, η αποκεντρωμένη χώρα είναι σημαντικά μικρότερη περιοχή. στο ύψος του, το Mastodon
είχε περίπου 2,5 εκατομμύρια χρήστες
. Μπορείτε να το συγκρίνετε με τους πρόσφατους καθημερινούς αριθμούς ενεργών χρηστών του
Twitter
, οι οποίοι
αιωρούνται κάπου γύρω στα 250 εκατομμύρια
.
Παρά τη συναρπαστική υπόσχεση του Fediverse, υπάρχουν προφανή προβλήματα με το μοντέλο του. Απειλές για την ασφάλεια, για ένα πράγμα,
αποτελούν ένα θέμα
. ο
περιορισμένη φιλικότητα προς τον χρήστη
του οικοσυστήματος υπήρξε επίσης πηγή διαμάχης. Και, όπως σημειώνει η νέα μελέτη του Στάνφορντ, η έλλειψη κεντρικής εποπτείας σημαίνει ότι δεν υπάρχουν αρκετά προστατευτικά κιγκλιδώματα ενσωματωμένα στο οικοσύστημα για την άμυνα ενάντια στη διάδοση παράνομου και ανήθικου περιεχομένου. Πράγματι, οι ερευνητές λένε ότι σε διάστημα δύο ημερών συνάντησαν περίπου 600 κομμάτια είτε γνωστού είτε ύποπτου περιεχομένου CSAM σε κορυφαίες περιπτώσεις Mastodon. Τρομακτικά, το πρώτο κομμάτι CSAM που συνάντησαν οι ερευνητές ανακαλύφθηκε μέσα στα πρώτα πέντε λεπτά της έρευνας. Γενικά, οι ερευνητές λένε ότι το περιεχόμενο ήταν εύκολα προσβάσιμο και μπορούσε να αναζητηθεί σε ιστότοπους με ευκολία.
Η αναφορά αναλύει περαιτέρω γιατί το περιεχόμενο ήταν τόσο προσβάσιμο…
…οι κακοί ηθοποιοί τείνουν να πηγαίνουν στην πλατφόρμα με τις πιο χαλαρές πολιτικές μετριοπάθειας και επιβολής. Αυτό σημαίνει ότι τα αποκεντρωμένα δίκτυα, στα οποία ορισμένες περιπτώσεις έχουν περιορισμένους πόρους ή επιλέγουν να μην ενεργήσουν, ενδέχεται να δυσκολεύονται να εντοπίσουν ή να μετριάσουν το υλικό σεξουαλικής κακοποίησης παιδιών (CSAM). Επί του παρόντος, η ομοσπονδία έχει ως αποτέλεσμα απολύσεις και αναποτελεσματικότητα που καθιστούν δύσκολη την ανάσχεση του CSAM, των Μη Συναινετικών Εικονικών Εικόνων (NCII) και άλλου επιβλαβούς και παράνομου περιεχομένου και συμπεριφοράς.
Το Gizmodo επικοινώνησε με τη Mastodon για να σχολιάσει τη νέα έρευνα, αλλά δεν έλαβε απάντηση. Θα ενημερώσουμε αυτήν την ιστορία εάν η πλατφόρμα ανταποκριθεί.
Ο «κεντρικός» ιστός έχει επίσης ένα τεράστιο πρόβλημα CSAM
Παρά τα ευρήματα της έκθεσης του Στάνφορντ, λαμβάνεται υπόψη ότι μόνο και μόνο επειδή ένας ιστότοπος είναι «συγκεντρωμένος» ή έχει «επίβλεψη», αυτό δεν σημαίνει ότι έχει λιγότερο παράνομο περιεχόμενο. Πράγματι, πρόσφατες έρευνες έχουν δείξει ότι οι περισσότερες μεγάλες πλατφόρμες μέσων κοινωνικής δικτύωσης
κολυμπούν με υλικό κακοποίησης παιδιών
. Ακόμα κι αν ένας ιστότοπος διαθέτει ένα προηγμένο σύστημα εποπτείας περιεχομένου, αυτό δεν σημαίνει ότι το σύστημα είναι ιδιαίτερα καλό στον εντοπισμό και την εξάλειψη απεχθούς περιεχομένου.
Ενδεικτική περίπτωση: τον Φεβρουάριο,
μια αναφορά
από τους
New York
Times έδειξαν ότι το Twitter είχε εκκαθαρίσει έναν εκπληκτικό αριθμό 400.000 λογαριασμών χρηστών για «δημιουργία, διανομή ή δέσμευση με το CSAM». Παρά την προληπτική κατάργηση λογαριασμών από την εφαρμογή πουλιών, η έκθεση σημείωσε ότι η ομάδα Ασφάλειας του Twitter φαινόταν να «αποτυγχάνει» στην αποστολή της να απαλλάξει την πλατφόρμα από μια εκπληκτική ποσότητα υλικού κατάχρησης.
Ομοίως, πρόσφατη Wall Street Journal
έρευνα
έδειξε ότι όχι μόνο κυκλοφορεί ένας εκπληκτικός όγκος υλικού κακοποίησης παιδιών
Instagram
, αλλά που είχαν οι αλγόριθμοι της πλατφόρμας
«προώθησε» ενεργά τέτοιο περιεχόμενο σε παιδεραστές. Πράγματι, σύμφωνα με το άρθρο του Journal, το Instagram ήταν υπεύθυνο για την καθοδήγηση των παιδεραστών «στο [CSAM] πωλητές περιεχομένου μέσω συστημάτων συστάσεων που διαπρέπουν στη σύνδεση εκείνων που μοιράζονται εξειδικευμένα ενδιαφέροντα.” Μετά τη δημοσίευση της αναφοράς του Journal, η μητρική εταιρεία του Instagram
Meta
είπε ότι είχε δημιουργήσει μια εσωτερική ομάδα για να ασχοληθεί.
Η ανάγκη για «νέα εργαλεία για ένα νέο περιβάλλον»
Ενώ τόσο ο κεντρικός όσο και ο αποκεντρωμένος ιστός παλεύουν ξεκάθαρα με τη διάδοση του CSAM, ο επικεφαλής ερευνητής της νέας έκθεσης του Stanford, David Thiel, λέει ότι το Fediverse είναι ιδιαίτερα ευάλωτο σε αυτό το πρόβλημα. Σίγουρα, οι «κεντρικές» πλατφόρμες μπορεί να μην είναι ιδιαίτερα καλές στον εντοπισμό παράνομου περιεχομένου, αλλά αν πρέπει να το καταργήσουν, έχουν τα εργαλεία για να το κάνουν. Πλατφόρμες όπως το Mastodon, εν τω μεταξύ, δεν διαθέτουν την κατανεμημένη υποδομή για να αντιμετωπίσουν το CSAM σε κλίμακα, λέει ο Thiel.
«Δεν υπάρχουν σχεδόν καθόλου ενσωματωμένα εργαλεία Fediverse για να βοηθήσουν στη διαχείριση του προβλήματος, ενώ οι μεγάλες πλατφόρμες μπορούν να απορρίψουν το γνωστό CSAM με αυτοματοποιημένο τρόπο πολύ εύκολα», είπε ο Thiel στο Gizmodo σε ένα email. «Οι κεντρικές πλατφόρμες έχουν την απόλυτη εξουσία για το περιεχόμενο και έχουν τη δυνατότητα να το σταματήσουν όσο το δυνατόν περισσότερο, αλλά στο Fediverse απλά κόβεις τους διακομιστές με κακούς ηθοποιούς και προχωράς, πράγμα που σημαίνει ότι το περιεχόμενο εξακολουθεί να διανέμεται και να βλάπτει τα θύματα».
«Το πρόβλημα, κατά τη γνώμη μου, δεν είναι ότι η αποκέντρωση είναι κάπως χειρότερη, είναι ότι κάθε τεχνικό εργαλείο που είναι διαθέσιμο για την καταπολέμηση του CSAM σχεδιάστηκε έχοντας κατά νου έναν μικρό αριθμό κεντρικών πλατφορμών. Χρειαζόμαστε νέα εργαλεία για ένα νέο περιβάλλον, το οποίο θα απαιτήσει μηχανικούς πόρους και χρηματοδότηση».
Όσον αφορά το οικοσύστημα των μέσων κοινωνικής δικτύωσης που πάσχει από ένα «μεγαλύτερο» πρόβλημα CSAM – το κεντρικό ή το αποκεντρωμένο – ο Thiel είπε ότι δεν μπορούσε να πει. «Δεν νομίζω ότι μπορούμε να ποσοτικοποιήσουμε το «μεγαλύτερο» χωρίς αντιπροσωπευτικά δείγματα και προσαρμογή για τη βάση χρηστών», είπε.


