Ο Μέτα επέκρινε για την αφαίρεση βίντεο που δείχνουν τον πόλεμο Ισραήλ-Χαμάς
Το
Εποπτικό Συμβούλιο της Meta επέκρινε τα αυτοματοποιημένα εργαλεία εποπτείας της εταιρείας ότι είναι υπερβολικά επιθετικά, αφού δύο βίντεο που απεικόνιζαν ομήρους, τραυματίες αμάχους και πιθανές απώλειες στον πόλεμο
Ισραήλ-Χαμάς
αφαιρέθηκαν – λέει – αδίκως από το Facebook και το
Instagram
. Σε
έκθεση που δημοσιεύτηκε την Τρίτη
, η εξωτερική επιτροπή αναθεώρησης έκρινε ότι οι αναρτήσεις θα έπρεπε να είχαν παραμείνει ζωντανές και ότι η κατάργηση του περιεχομένου έχει υψηλό κόστος για την «ελευθερία έκφρασης και πρόσβαση σε πληροφορίες» στον πόλεμο. (Μια προειδοποίηση για τους αναγνώστες μας: οι ακόλουθες περιγραφές του περιεχομένου μπορεί να είναι ενοχλητικές.)
Ένα από τα βίντεο που αφαιρέθηκαν, που δημοσιεύτηκε στο Facebook, απεικονίζει μια Ισραηλινή γυναίκα κατά τη διάρκεια της επίθεσης της Χαμάς στο Ισραήλ στις 7 Οκτωβρίου, να παρακαλεί τους απαγωγείς που την έπαιρναν όμηρο να μην τη σκοτώσουν. Το άλλο βίντεο δημοσιεύτηκε στο Instagram και δείχνει τι φαίνεται να είναι ο απόηχος μιας ισραηλινής επίθεσης στο νοσοκομείο al-Shifa στην πόλη της Γάζας ή κοντά σε αυτό. Η ανάρτηση περιέχει πλάνα από νεκρούς ή τραυματίες Παλαιστινίους, συμπεριλαμβανομένων παιδιών.
Το διοικητικό συμβούλιο λέει ότι, στην περίπτωση του τελευταίου βίντεο, τόσο η αφαίρεση όσο και η απόρριψη της έκκλησης του χρήστη να επαναφέρει το υλικό πραγματοποιήθηκαν από τα αυτοματοποιημένα εργαλεία εποπτείας της Meta, χωρίς καμία ανθρώπινη εξέταση. Το διοικητικό συμβούλιο προχώρησε σε επανεξέταση της απόφασης σχετικά με ένα «επιταχυνόμενο χρονοδιάγραμμα 12 ημερών» και μετά την εξέταση της υπόθεσης, τα βίντεο αποκαταστάθηκαν με μια οθόνη προειδοποίησης περιεχομένου.
Στην έκθεσή του, το διοικητικό συμβούλιο διαπίστωσε ότι τα όρια εποπτείας που είχαν μειωθεί για να εντοπιστεί πιο εύκολα το περιεχόμενο παραβίασης μετά την επίθεση στις 7 Οκτωβρίου «αύξησαν επίσης την πιθανότητα η Meta να αφαιρέσει κατά λάθος περιεχόμενο που δεν παραβιάζει τη σύγκρουση». Το συμβούλιο λέει ότι η έλλειψη ανθρωποκεντρικού μέτρου κατά τη διάρκεια αυτών των τύπων κρίσεων μπορεί να οδηγήσει σε «λανθασμένη αφαίρεση ομιλίας που μπορεί να είναι σημαντικού δημόσιου ενδιαφέροντος» και ότι ο Meta θα έπρεπε να είχε επιτρέψει πιο γρήγορα το περιεχόμενο «κοινοποιημένο για σκοπούς καταδίκης , ευαισθητοποίηση, αναφορά ειδήσεων ή έκκληση για απελευθέρωση» με εφαρμογή προειδοποιητικής οθόνης.
Το συμβούλιο επέκρινε επίσης τη Meta για τον υποβιβασμό των δύο αναθεωρημένων αναρτήσεων με οθόνες προειδοποίησης, εμποδίζοντάς τις να εμφανίζονται ως προτεινόμενο περιεχόμενο σε άλλους χρήστες του Facebook και του Instagram, παρά το γεγονός ότι η εταιρεία αναγνώρισε ότι οι αναρτήσεις είχαν σκοπό να ευαισθητοποιήσουν. Ο Μέτα έκτοτε
απάντησε στην απόφαση του διοικητικού συμβουλίου
να ανατρέψει τις αφαιρέσεις, λέγοντας ότι επειδή δεν υποβλήθηκαν συστάσεις από την επιτροπή, δεν θα υπάρξει περαιτέρω ενημέρωση για την υπόθεση.
Η Meta δεν είναι ο μόνος γίγαντας των μέσων κοινωνικής δικτύωσης που ελέγχεται για τον χειρισμό του περιεχομένου που περιβάλλει τον πόλεμο Ισραήλ-Χαμάς. Οι επαληθευμένοι χρήστες στο X (πρώην
Twitter
) έχουν κατηγορηθεί ως «υπερ-διαδότες
παραπληροφόρηση
ς» από τον οργανισμό παρακολούθησης παραπληροφόρησης NewsGuard. Το TikTok και το YouTube ελέγχονται επίσης σύμφωνα με τον Νόμο για τις Ψηφιακές Υπηρεσίες της ΕΕ μετά από μια αναφερόμενη αύξηση παράνομου περιεχομένου και παραπληροφόρησης στις πλατφόρμες, και η ΕΕ έχει ξεκινήσει επίσημη έρευνα για το X. Η υπόθεση του Εποπτικού Συμβουλίου, αντίθετα, υπογραμμίζει τους κινδύνους υπερβολικού μετριοπάθειας — και οι δύσκολες πλατφόρμες πρέπει να περπατήσουν.
VIA:
theverge.com

