Πόσο ασφαλής είναι τελικά η νέα μέθοδος της Apple για τα κακοποιημένα παιδιά

Η Apple ανακοίνωσε ότι με την



κυκλοφορία

του iOS 15 και του iPadOS 15, θα ξεκινήσει τη σάρωση των φωτογραφιών iCloud στις ΗΠΑ, για να εντοπίζει υλικό σεξουαλικής κακοποίησης παιδιών (CSAM), ενώ σκοπεύει να αναφέρει τα ευρήματα στο Εθνικό Κέντρο για αγνοούμενα και κακοποιημένα παιδιά.



Δείτε επίσης:



Η Google δημιουργεί iOS app για αντιγραφή δεδομένων σε Android

Eliza Child Abuse Schema42 scaled 1 - Πόσο ασφαλής είναι τελικά η νέα μέθοδος της Apple για τα κακοποιημένα παιδιά

Ωστόσο, οι



ερευνητές


ασφαλείας

έχουν ήδη αρχίσει να εκφράζουν ανησυχίες για το πώς το νέο πρωτόκολλο σάρωσης εικόνας της Apple θα μπορούσε να χρησιμοποιηθεί στο μέλλον, όπως αναφέρουν οι

Financial Times

.

Η Apple χρησιμοποιεί ένα σύστημα “

NeuralHash

“, για να συγκρίνει γνωστές εικόνες CSAM με



φωτογραφίες

στο iPhone ενός χρήστη, προτού μεταφορτωθούν στο iCloud. Εάν υπάρχει αντιστοιχία, η φωτογραφία μεταφορτώνεται με κρυπτογραφημένο κουπόνι

ασφαλείας

και σε ένα συγκεκριμένο όριο, ενεργοποιείται μια ανασκόπηση για να ελέγξει εάν το άτομο έχει CSAM στις



συσκευές

του.

Αυτή τη στιγμή, η Apple χρησιμοποιεί την

τεχνολογία

σάρωσης εικόνας και αντιστοίχισης για να αναζητήσει αποδείξεις κακοποίησης παιδιών, αλλά οι ερευνητές ανησυχούν ότι στο μέλλον, θα μπορούσε να προσαρμοστεί για σάρωση άλλων ειδών εικόνων που είναι πιο ανησυχητικά, όπως αντικυβερνητικά σημάδια για



διαμαρτυρίες

.



Δείτε ακόμα:



Apple: Θα ανιχνεύει εικόνες κακοποιημένων παιδιών στα photo libraries χρηστών

Ο ερευνητής κρυπτογραφίας του Johns Hopkins,

Matthew Green

είπε ότι η σάρωση CSAM είναι μια “πραγματικά κακή ιδέα”, διότι στο μέλλον, θα μπορούσε να επεκταθεί στη σάρωση κρυπτογραφημένων φωτογραφιών και όχι μόνο σε



περιεχόμενο

που ανεβαίνει στο iCloud. Για τα παιδιά, η Apple εφαρμόζει μια ξεχωριστή



λειτουργία

σάρωσης που αναζητά σεξουαλικό



περιεχόμενο

απευθείας στα iMessages, τα οποία είναι κρυπτογραφημένα από άκρο σε άκρο.

Ο Green εξέφρασε επίσης ανησυχίες για τα hashes που σχεδιάζει να χρησιμοποιήσει η Apple επειδή ενδέχεται να υπάρξουν “συγκρούσεις”, όταν κάποιος στέλνει ένα ακίνδυνο αρχείο που μοιράζεται ένα hash με το CSAM και μπορεί να οδηγήσει σε ψευδή επισήμανση του αρχείου αυτού.

apple iphone child abuse 16711 c0 250 6000 3750 s1200x700 - Πόσο ασφαλής είναι τελικά η νέα μέθοδος της Apple για τα κακοποιημένα παιδιά

Η Apple από την πλευρά της λέει ότι η

τεχνολογία

σάρωσης έχει “εξαιρετικά υψηλό επίπεδο ακρίβειας” για να βεβαιωθεί ότι οι



λογαριασμοί

δεν έχουν επισημανθεί εσφαλμένα και ότι οι αναφορές ελέγχονται με μη αυτόματο τρόπο πριν απενεργοποιηθεί ο



λογαριασμός

iCloud ενός ατόμου και αποσταλεί μια

αναφορά

στο NCMEC.

Ο Green πιστεύει ότι η

εφαρμογή

της Apple θα ωθήσει άλλες



εταιρείες

τεχνολογίας να υιοθετήσουν παρόμοιες τεχνικές. Συγκρίνει μάλιστα την

τεχνολογία

με “εργαλεία που έχουν χρησιμοποιήσει καταπιεστικά καθεστώτα”.



Δείτε επίσης:



Apple Magic Keyboard με Touch ID ξεκινά από $ 149

Ο ερευνητής ασφάλειας

Alec Muffett

, ο οποίος παλαιότερα εργαζόταν στο Facebook, δήλωσε ότι η απόφαση της Apple να εφαρμόσει αυτού του είδους τη σάρωση εικόνας ήταν ένα «

τεράστιο και οπισθοδρομικό βήμα


για την



ιδιωτικότητα

του ατόμου

».

Ο

Ross Anderson

, καθηγητής μηχανικής ασφάλειας στο



Πανεπιστήμιο

του Κέιμπριτζ είπε ότι το χαρακτήρισε «απολύτως τρομακτική ιδέα» που θα μπορούσε να οδηγήσει σε «κατανεμημένη μαζική

παρακολούθηση

» συσκευών. Όπως πολλοί έχουν επισημάνει στο Twitter, πολλές

τεχνολογικές




εταιρείες

κάνουν ήδη σάρωση εικόνας για CSAM. Η Google, το Twitter, η Microsoft, το Facebook και άλλοι χρησιμοποιούν μεθόδους κατακερματισμού εικόνων για να αναζητήσουν και να αναφέρουν εικόνες κακοποίησης παιδιών.

Google News - Πόσο ασφαλής είναι τελικά η νέα μέθοδος της Apple για τα κακοποιημένα παιδιά

Πατήστ


ε

εδώ

και ακολουθήστε το


TechWar.gr στο Google News


για να μάθετε πρώτοι όλες τις


ειδήσεις τεχνολογίας.


Πηγή


Λάβετε ενημερώσεις σε πραγματικό χρόνο απευθείας στη συσκευή σας, εγγραφείτε τώρα.



Μπορεί επίσης να σας αρέσει


Σχολιάστε το Άρθρο



Ακύρωση απάντησης

Η διεύθυνση email σας δεν θα δημοσιευθεί.







Αυτός ο ιστότοπος χρησιμοποιεί το Akismet για να μειώσει τα ανεπιθύμητα σχόλια.

Μάθετε πώς υφίστανται επεξεργασία τα δεδομένα των σχολίων σας

.