Ο Μέτα έχει
επιβεβαιωμένος
ότι θα διακόψει τα σχέδια για την έναρξη της εκπαίδευσης των συστημάτων AI χρησιμοποιώντας δεδομένα από τους χρήστες της στην Ευρωπαϊκή Ένωση και στο Ηνωμένο Βασίλειο
Η κίνηση αυτή ακολουθεί την ώθηση από την Ιρλανδική Επιτροπή Προστασίας Δεδομένων (DPC), την κύρια ρυθμιστική αρχή της Meta στην
ΕΕ
, η οποία ενεργεί για λογαριασμό αρκετών αρχών προστασίας δεδομένων σε ολόκληρο το μπλοκ. Γραφείο Επιτρόπου Πληροφοριών του Ηνωμένου Βασιλείου (ICO)
ζητήθηκε επίσης
ότι η Meta σταμάτησε τα σχέδιά της μέχρι να μπορέσει να ικανοποιήσει τις ανησυχίες που είχε εγείρει.
«Το DPC χαιρετίζει την απόφαση της Meta να σταματήσει τα σχέδιά της να εκπαιδεύσει το μεγάλο γλωσσικό
μοντέλο
της χρησιμοποιώντας δημόσιο περιεχόμενο που κοινοποιείται από ενήλικες στο Facebook και το Instagram σε ολόκληρη την ΕΕ/ΕΟΧ», ανέφερε το DPC σε μια ανακοίνωση.
δήλωση
Παρασκευή. «Αυτή η απόφαση ακολούθησε την εντατική δέσμευση μεταξύ του DPC και της Meta. Το DPC, σε συνεργασία με τις συναδέλφους του αρχές προστασίας δεδομένων της ΕΕ, θα συνεχίσει να συνεργάζεται με τη Meta για αυτό το θέμα».
Ενώ η Meta χρησιμοποιεί ήδη περιεχόμενο που δημιουργείται από χρήστες για να εκπαιδεύσει την τεχνητή νοημοσύνη της σε αγορές όπως οι ΗΠΑ, οι αυστηροί κανονισμοί GDPR της Ευρώπης έχουν δημιουργήσει εμπόδια για τη Meta — και άλλες εταιρείες — που θέλουν να βελτιώσουν τα συστήματα τεχνητής νοημοσύνης τους, συμπεριλαμβανομένων μεγάλων μοντέλων γλώσσας με εκπαίδευση που δημιουργείται από χρήστες υλικό.
Ωστόσο, η Meta τον περασμένο μήνα άρχισε να ειδοποιεί τους χρήστες για ένα
επερχόμενη αλλαγή
στην πολιτική απορρήτου της, μια που είπε ότι θα της δώσει το δικαίωμα να χρησιμοποιεί δημόσιο περιεχόμενο στο Facebook και το Instagram για να εκπαιδεύει το AI του, συμπεριλαμβανομένου περιεχομένου από σχόλια, αλληλεπιδράσεις με εταιρείες, ενημερώσεις κατάστασης, φωτογραφίες και τις σχετικές λεζάντες τους. Η εταιρία
υποστήριξε ότι έπρεπε να το κάνει αυτό
να αντικατοπτρίζει «τις διαφορετικές γλώσσες, τη γεωγραφία και τις πολιτιστικές αναφορές των ανθρώπων στην Ευρώπη».
Αυτές οι αλλαγές επρόκειτο να τεθούν σε ισχύ στις 26 Ιουνίου — σε 12 ημέρες από τώρα. Αλλά το
ώθησαν τα σχέδια
μη κερδοσκοπικός οργανισμός ακτιβιστών προστασίας της ιδιωτικής ζωής
NOYB
(«δεν είναι δική σου δουλειά») να υποβάλει 11 καταγγελίες σε χώρες της ΕΕ, με το επιχείρημα ότι η Meta παραβιάζει διάφορες πτυχές του GDPR. Ένα από αυτά σχετίζεται με το θέμα της επιλογής συμμετοχής έναντι της εξαίρεσης,
vis à vis
όπου λαμβάνει χώρα επεξεργασία προσωπικών δεδομένων, θα πρέπει πρώτα να ζητείται από τους χρήστες η άδειά τους αντί να απαιτείται ενέργεια για άρνηση.
Η Meta, από την πλευρά της, βασιζόταν σε μια διάταξη GDPR που ονομάζεται «νόμιμα συμφέροντα» για να υποστηρίξει ότι οι ενέργειές της ήταν σύμφωνες με τους κανονισμούς. Δεν είναι η πρώτη φορά που η Meta χρησιμοποιεί αυτή τη νομική βάση για την άμυνα, αφού προηγουμένως το είχε κάνει για να δικαιολογήσει την επεξεργασία ευρωπαίων χρηστών για στοχευμένη διαφήμιση.
Πάντα φαινόταν πιθανό ότι οι ρυθμιστικές αρχές θα αναστέλλουν τουλάχιστον την εκτέλεση των σχεδιαζόμενων αλλαγών της Meta, ιδιαίτερα δεδομένου του πόσο δύσκολο είχε κάνει η εταιρεία για τους χρήστες να «εξαιρούνται» από τη χρήση των δεδομένων τους. Η εταιρεία είπε ότι έστειλε περισσότερες από 2 δισεκατομμύρια ειδοποιήσεις ενημερώνοντας τους χρήστες για τις επερχόμενες αλλαγές, αλλά σε αντίθεση με άλλα σημαντικά δημόσια μηνύματα που είναι κολλημένα στην κορυφή των ροών των χρηστών, όπως προτροπές να βγουν έξω και να ψηφίσουν, αυτές οι ειδοποιήσεις εμφανίστηκαν δίπλα στους χρήστες τυπικές ειδοποιήσεις: γενέθλια φίλων, ειδοποιήσεις ετικετών φωτογραφιών, ομαδικές ανακοινώσεις και άλλα. Έτσι, αν κάποιος δεν ελέγχει τακτικά τις ειδοποιήσεις του, ήταν πολύ εύκολο να το χάσει αυτό.
Και όσοι είδαν την ειδοποίηση δεν θα γνώριζαν αυτόματα ότι υπήρχε τρόπος να αντιταχθούν ή να εξαιρεθούν, καθώς απλώς καλούσε τους χρήστες να κάνουν κλικ για να μάθουν πώς θα χρησιμοποιήσει η Meta τις πληροφορίες τους. Δεν υπήρχε τίποτα που να υποδηλώνει ότι υπήρχε επιλογή εδώ.
Συντελεστές εικόνας:
Μετα
Επιπλέον, οι χρήστες τεχνικά δεν ήταν σε θέση να «εξαιρεθούν» από τη χρήση των δεδομένων τους. Αντίθετα, έπρεπε να συμπληρώσουν ένα έντυπο ένστασης όπου προέβαλαν τα επιχειρήματά τους για τους λόγους που δεν ήθελαν να υποβληθούν σε επεξεργασία τα δεδομένα τους — ήταν εξ ολοκλήρου στη διακριτική ευχέρεια της Meta ως προς το εάν αυτό το αίτημα ικανοποιήθηκε, αν και η εταιρεία είπε ότι θα τιμήσει κάθε αίτηση.

Συντελεστές εικόνας:
Meta / Στιγμιότυπο οθόνης
Παρόλο που η φόρμα ένστασης ήταν συνδεδεμένη από την ίδια την ειδοποίηση, οποιοσδήποτε αναζητούσε προληπτικά τη φόρμα ένστασης στις ρυθμίσεις του λογαριασμού του, τέθηκε εκτός εργασίας.
Στον ιστότοπο του Facebook, έπρεπε πρώτα να κάνουν κλικ στο δικό τους
Η φωτογραφία προφίλ
πάνω δεξιά? Κτύπημα
ρυθμίσεις και απόρρητο
; παρακέντηση
κέντρο απορρήτου
; μετακινηθείτε προς τα κάτω και κάντε κλικ στο
Generative AI στο Meta
Ενότητα; μετακινηθείτε ξανά προς τα κάτω, περνώντας από μια δέσμη συνδέσμων προς μια ενότητα με τίτλο
περισσότερους πόρους
. Ο πρώτος σύνδεσμος κάτω από αυτήν την ενότητα ονομάζεται “
Πώς το Meta χρησιμοποιεί πληροφορίες για μοντέλα Generative AI
», και χρειάστηκε να διαβάσουν περίπου 1.100 λέξεις πριν φτάσουν σε έναν διακριτό σύνδεσμο προς τη φόρμα «δικαίωμα αντίρρησης» της εταιρείας. Ήταν μια παρόμοια ιστορία στην εφαρμογή για κινητά του Facebook.

Συντελεστές εικόνας:
Meta / Στιγμιότυπο οθόνης
Νωρίτερα αυτή την εβδομάδα, όταν ρωτήθηκε γιατί αυτή η διαδικασία απαιτούσε από τον χρήστη να υποβάλει ένσταση αντί να δηλώσει συμμετοχή, ο υπεύθυνος επικοινωνίας πολιτικής της Meta
Ματ Πόλαρντ
έδειξε το TechCrunch σε αυτό
υπάρχουσα ανάρτηση ιστολογίου
το οποίο λέει: «Πιστεύουμε αυτή τη νομική βάση [“legitimate interests”] είναι η πιο κατάλληλη ισορροπία για την επεξεργασία δημόσιων δεδομένων στην κλίμακα που απαιτείται για την εκπαίδευση μοντέλων τεχνητής νοημοσύνης, με σεβασμό των δικαιωμάτων των ανθρώπων».
Για να μεταφραστεί αυτό, το να γίνει αυτό το opt-in πιθανότατα δεν θα δημιουργούσε αρκετή «κλίμακα» όσον αφορά τους ανθρώπους που είναι πρόθυμοι να προσφέρουν τα δεδομένα τους. Έτσι, ο καλύτερος τρόπος για να αντιμετωπιστεί αυτό ήταν να εκδοθεί μια μοναχική ειδοποίηση μεταξύ άλλων ειδοποιήσεων των χρηστών. απόκρυψη της φόρμας ένστασης πίσω από μισή ντουζίνα κλικ για όσους αναζητούν ανεξάρτητα την «εξαίρεση». και μετά κάντε τους να δικαιολογήσουν την αντίρρησή τους, αντί να τους δώσετε μια ευθεία εξαίρεση.
Σε μια
ενημερωμένη ανάρτηση ιστολογίου
Την Παρασκευή, ο παγκόσμιος διευθυντής δέσμευσης της Meta για την πολιτική απορρήτου Stefano Fratta δήλωσε ότι ήταν «απογοητευμένος» από το αίτημα που έλαβε από το DPC.
«Αυτό είναι ένα βήμα προς τα πίσω για την ευρωπαϊκή καινοτομία, τον ανταγωνισμό στην ανάπτυξη της τεχνητής νοημοσύνης και περαιτέρω καθυστερήσεις που φέρνουν τα οφέλη της τεχνητής νοημοσύνης στους ανθρώπους στην Ευρώπη», έγραψε ο Fratta. «Είμαστε πολύ σίγουροι ότι η προσέγγισή μας συμμορφώνεται με τους ευρωπαϊκούς νόμους και κανονισμούς. Η εκπαίδευση τεχνητής νοημοσύνης δεν είναι μοναδική για τις υπηρεσίες μας και είμαστε πιο διαφανείς από πολλούς από τους ομολόγους μας στον κλάδο».
Κούρσα εξοπλισμών AI
Τίποτα από αυτά δεν είναι καινούργιο και ο Meta βρίσκεται σε έναν αγώνα εξοπλισμών τεχνητής νοημοσύνης που έχει ρίξει τεράστια φώτα στο τεράστιο οπλοστάσιο δεδομένων που διαθέτει η
Big Tech
για όλους μας.
Νωρίτερα αυτό το έτος, το Reddit αποκάλυψε ότι έχει συνάψει σύμβαση για να βγάλει 200 εκατομμύρια δολάρια τα επόμενα χρόνια για την αδειοδότηση των δεδομένων του σε εταιρείες όπως η OpenAI κατασκευαστής ChatGPT και
Google
. Και η τελευταία από αυτές τις εταιρείες αντιμετωπίζει ήδη τεράστια πρόστιμα επειδή στηρίζεται σε περιεχόμενο ειδήσεων που προστατεύεται από πνευματικά δικαιώματα για να εκπαιδεύσει τα παραγωγικά μοντέλα τεχνητής νοημοσύνης της.
Ωστόσο, αυτές οι προσπάθειες υπογραμμίζουν επίσης τα μήκη στα οποία θα καταβάλουν οι εταιρείες για να διασφαλίσουν ότι μπορούν να αξιοποιήσουν αυτά τα δεδομένα εντός των περιορισμών της υφιστάμενης νομοθεσίας. Η «συμμετοχή» σπάνια βρίσκεται στην ημερήσια διάταξη και η διαδικασία εξαίρεσης είναι συχνά άσκοπα επίπονη. Μόλις τον περασμένο μήνα, κάποιος εντόπισε κάποια αμφίβολη διατύπωση σε μια υπάρχουσα πολιτική απορρήτου του Slack που πρότεινε ότι θα μπορούσε να αξιοποιήσει τα
δεδομένα χρηστών
για την εκπαίδευση των συστημάτων AI του, με τους χρήστες να μπορούν να εξαιρεθούν μόνο στέλνοντας email στην εταιρεία.
Και πέρυσι, η
Google
έδωσε τελικά στους διαδικτυακούς εκδότες έναν τρόπο να επιλέξουν τους ιστότοπούς τους να μην εκπαιδεύουν τα μοντέλα της, επιτρέποντάς τους να εισάγουν ένα κομμάτι κώδικα στους ιστότοπούς τους. Το OpenAI, από την πλευρά του, κατασκευάζει ένα ειδικό εργαλείο για να επιτρέψει στους δημιουργούς περιεχομένου να εξαιρεθούν από την εκπαίδευση των έξυπνων τεχνητών τεχνητής νοημοσύνης. αυτό θα πρέπει να είναι έτοιμο έως το 2025.
Ενώ οι προσπάθειες της Meta να εκπαιδεύσει την τεχνητή νοημοσύνη της στο δημόσιο περιεχόμενο των χρηστών στην Ευρώπη είναι προς το παρόν παγωμένες, πιθανότατα θα επανέλθει με άλλη μορφή μετά από διαβούλευση με το DPC και το ICO — ελπίζουμε με μια διαφορετική διαδικασία άδειας χρήστη.
«Προκειμένου να αξιοποιηθεί στο έπακρο η παραγωγική τεχνητή νοημοσύνη και οι ευκαιρίες που φέρνει, είναι σημαντικό το κοινό να μπορεί να εμπιστευτεί ότι τα δικαιώματά του απορρήτου θα γίνουν σεβαστά από την αρχή», δήλωσε ο Stephen Almond, εκτελεστικός διευθυντής του ICO για ρυθμιστικούς κινδύνους. ένα
δήλωση Παρασκευής
. «Θα συνεχίσουμε να παρακολουθούμε τους μεγάλους προγραμματιστές της γενετικής τεχνητής νοημοσύνης, συμπεριλαμβανομένου του Meta, για να επανεξετάζουμε τις διασφαλίσεις που έχουν θέσει σε εφαρμογή και να διασφαλίζουμε ότι προστατεύονται τα δικαιώματα πληροφοριών των χρηστών του Ηνωμένου Βασιλείου».
VIA:
techcrunch.com
0