Apple για παιδική πορνογραφία – Δεν θα δώσει στις Αρχές το σύστημα παρακολούθησης CSAM

Το σύστημα CSAM, για τον εντοπισμό περιστατικών παιδικής πορνογραφίας, της Apple δεν πρόκειται να πέσει σε κυβερνητικά χέρια. Αυτό, τουλάχιστον, διαβεβαιώνει η



εταιρεία

, ακόμα και εάν της ζητηθεί έντονα κάτι τέτοιο.

Το σύστημα CSAM της Apple αναλαμβάνει τον έλεγχο του iCloud για υλικό παιδικής πορνογραφίας ή άλλες περιπτώσεις παιδικής κακοποίησης, προκειμένου να εντοπίσει τέτοιο υλικό στους servers της. Όταν η Apple ανακοίνωσε ότι θα ξεκινήσει τον έλεγχο των δεδομένων που ανεβαίνουν στο cloud της, δημιουργήθηκε η εύλογη ανησυχία αναφορικά με το εάν έτσι δημιουργείται ένα

εργαλείο

μαζικής παρακολούθησης των πολιτών.


Για να διασκεδάσει τις ανησυχίες αυτές, η Apple ξεκαθάρισε ότι σε καμία περίπτωση δεν θα επιτρέψει τη χρήση της τεχνολογίας της από κυβερνητικούς φορείς και κρατικές



υπηρεσίες

, ακόμα και εάν της ζητηθεί επιτακτικά. Μάλιστα, η Apple διευκρινίζει ότι η συγκεκριμένη

τεχνολογία

είναι αυστηρά περιορισμένη στη χρήση στο iCloud και δεν πρόκειται να επεκταθεί για κανένα λόγο.

Αρχικά, η Apple θα εξετάσει τις



φωτογραφίες

που έχουν ήδη ανέβει στο iCloud και δεν πρόκειται να μπει σε ιδιωτικές συλλογές φωτογραφιών που δεν έχουν δημοσιευτεί σε online φακέλους.

Google News - Apple για παιδική πορνογραφία - Δεν θα δώσει στις Αρχές το σύστημα παρακολούθησης CSAM

Πατήστ


ε

εδώ

και ακολουθήστε το


TechWar.gr στο Google News


για να μάθετε πρώτοι όλες τις


ειδήσεις τεχνολογίας.


Πηγή


Λάβετε ενημερώσεις σε πραγματικό χρόνο απευθείας στη συσκευή σας, εγγραφείτε τώρα.



Μπορεί επίσης να σας αρέσει


Σχολιάστε το Άρθρο



Ακύρωση απάντησης

Η διεύθυνση email σας δεν θα δημοσιευθεί.







Αυτός ο ιστότοπος χρησιμοποιεί το Akismet για να μειώσει τα ανεπιθύμητα σχόλια.

Μάθετε πώς υφίστανται επεξεργασία τα δεδομένα των σχολίων σας

.