Η Apple παρέχει περαιτέρω σαφήνεια σχετικά με το γιατί εγκατέλειψε το σχέδιο για τον εντοπισμό CSAM στις Φωτογραφίες iCloud
Η Apple έδωσε την Πέμπτη την πληρέστερη εξήγηση της για το περασμένο έτος εγκαταλείποντας το αμφιλεγόμενο σχέδιό της για τον εντοπισμό γνωστού υλικού σεξουαλικής κακοποίησης παιδιών (CSAM) που είναι αποθηκευμένο στο
iCloud
Photos
.
Η δήλωση της Apple, κοινοποιήθηκε με
Ενσύρματο
και αναπαράγεται παρακάτω, ήρθε ως απάντηση στην απαίτηση της Heat Initiative της ομάδας για την ασφάλεια των παιδιών να “εντοπίζει, αναφέρει και αφαιρεί” το CSAM από το iCloud και να προσφέρει περισσότερα εργαλεία στους χρήστες για να αναφέρουν τέτοιο περιεχόμενο στην εταιρεία.
«Το υλικό σεξουαλικής κακοποίησης παιδιών είναι αποκρουστικό και δεσμευόμαστε να σπάσουμε την αλυσίδα του εξαναγκασμού και της επιρροής που κάνει τα παιδιά ευαίσθητα σε αυτό», έγραψε ο Erik Neuenschwander, διευθυντής απορρήτου χρηστών και ασφάλειας παιδιών της Apple, στην απάντηση της εταιρείας στο Heat Initiative. Πρόσθεσε, ωστόσο, ότι μετά από συνεργασία με μια σειρά από ερευνητές απορρήτου και ασφάλειας, ομάδες ψηφιακών δικαιωμάτων και υποστηρικτές της παιδικής ασφάλειας, η εταιρεία κατέληξε στο συμπέρασμα ότι δεν μπορούσε να προχωρήσει στην ανάπτυξη ενός μηχανισμού σάρωσης CSAM, ακόμη και ενός κατασκευασμένου ειδικά για τη διατήρηση της ιδιωτικής ζωής .
«Η σάρωση των ιδιωτικά αποθηκευμένων δεδομένων iCloud κάθε χρήστη θα δημιουργούσε νέα διανύσματα απειλής για να τα βρουν και να τα εκμεταλλευτούν οι κλέφτες δεδομένων», έγραψε ο Neuenschwander. “Θα δημιουργούσε επίσης τη δυνατότητα για μια ολισθηρή κλίση ακούσιων συνεπειών. Η σάρωση για έναν τύπο περιεχομένου, για παράδειγμα, ανοίγει την πόρτα για μαζική παρακολούθηση και θα μπορούσε να δημιουργήσει την επιθυμία αναζήτησης άλλων
κρυπτο
γραφημένων συστημάτων ανταλλαγής μηνυμάτων σε όλους τους τύπους περιεχομένου.”
Τον Αύγουστο του 2021, η Apple ανακοίνωσε σχέδια για τρεις νέες λειτουργίες ασφάλειας για τα παιδιά, συμπεριλαμβανομένου ενός συστήματος για την ανίχνευση γνωστών εικόνων CSAM που είναι αποθηκευμένες στο iCloud Photos, μια επιλογή
Ασφάλεια
ς Επικοινωνίας που θολώνει τις σεξουαλικές φωτογραφίες στην εφαρμογή Messages και πόρους εκμετάλλευσης παιδιών για το Siri. Το Communication Safety κυκλοφόρησε στις ΗΠΑ με το iOS 15.2 τον Δεκέμβριο του 2021 και έκτοτε επεκτάθηκε στο Ηνωμένο Βασίλειο, τον Καναδά, την Αυστραλία και τη Νέα Ζηλανδία, ενώ οι πόροι Siri είναι επίσης διαθέσιμοι, αλλά η ανίχνευση CSAM δεν ολοκληρώθηκε ποτέ.
Η Apple αρχικά είπε ότι η ανίχνευση CSAM θα εφαρμοστεί σε μια ενημέρωση για το iOS 15 και το iPadOS 15 μέχρι το τέλος του 2021, αλλά η εταιρεία ανέβαλε τη λειτουργία με βάση “σχόλια από πελάτες, ομάδες υπεράσπισης, ερευνητές και άλλους”. Τα σχέδια επικρίθηκαν από ένα ευρύ φάσμα ατόμων και οργανισμών, συμπεριλαμβανομένων ερευνητών ασφαλείας, του Electronic Frontier Foundation (EFF), πολιτικών, ομάδων πολιτικής, πανεπιστημιακών ερευνητών, ακόμη και ορισμένων υπαλλήλων της Apple.
Η τελευταία απάντηση της Apple στο ζήτημα έρχεται σε μια στιγμή που η συζήτηση για την κρυπτογράφηση έχει αναζωπυρωθεί από την κυβέρνηση του Ηνωμένου Βασιλείου, η οποία είναι
εξετάζοντας σχέδια για τροποποίηση της νομοθεσίας περί επιτήρησης
Αυτό θα απαιτούσε από τις εταιρείες τεχνολογίας να απενεργοποιήσουν τις λειτουργίες ασφαλείας όπως η κρυπτογράφηση από άκρο σε άκρο χωρίς να το ενημερώσουν στο κοινό.
Η Apple λέει ότι θα αποσύρει
υπηρεσίες
, συμπεριλαμβανομένων των FaceTime και iMessage στο Ηνωμένο Βασίλειο, εάν η νομοθεσία ψηφιστεί στην τρέχουσα μορφή της.
Σημείωση: Λόγω της πολιτικής ή κοινωνικής φύσης της συζήτησης σχετικά με αυτό το θέμα, το νήμα συζήτησης βρίσκεται στο
Πολιτικά Νέα
δικαστήριο. Όλα τα μέλη του φόρουμ και οι επισκέπτες του ιστότοπου είναι ευπρόσδεκτοι να διαβάσουν και να ακολουθήσουν το νήμα, αλλά η ανάρτηση περιορίζεται σε μέλη του φόρουμ με τουλάχιστον 100 δημοσιεύσεις.
