Η γαλλική υπηρεσία επιτήρησης απορρήτου εξετάζει την προστασία έναντι της απόρριψης δεδομένων στο σχέδιο δράσης AI
Related Posts
Η γαλλική υπηρεσία παρακολούθησης της ιδιωτικής ζωής, η CNIL, δημοσίευσε ένα
σχέδιο δράσης
για την τεχνητή νοημοσύνη, η οποία δίνει ένα στιγμιότυπο για το πού θα εστιάσει την προσοχή της, συμπεριλαμβανομένων των τεχνολογιών παραγωγής τεχνητής νοημοσύνης όπως το ChatGPT του OpenAI, τους επόμενους μήνες και μετά.
Μια αποκλειστική Υπηρεσία Τεχνητής Νοημοσύνης έχει συσταθεί εντός του CNIL για να εργαστεί για τον προσδιορισμό του πεδίου εφαρμογής της τεχνολογίας και την παραγωγή συστάσεων για «συστήματα τεχνητής νοημοσύνης φιλικά προς το απόρρητο».
Ένας βασικός δηλωμένος στόχος για τη ρυθμιστική αρχή είναι να κατευθύνει την ανάπτυξη AI «που σέβεται τα προσωπικά δεδομένα», όπως με την ανάπτυξη των μέσων
έλεγχος και έλεγχος συστημάτων τεχνητής νοημοσύνης για την «προστασία των ανθρώπων».
Η κατανόηση του τρόπου με τον οποίο τα συστήματα τεχνητής νοημοσύνης επηρεάζουν τους ανθρώπους είναι μια άλλη κύρια εστίαση, μαζί με την υποστήριξη καινοτόμων παικτών στο τοπικό οικοσύστημα τεχνητής νοημοσύνης που εφαρμόζουν τις βέλτιστες πρακτικές του CNIL.
«Το CNIL θέλει να θεσπίσει σαφείς κανόνες για την προστασία των προσωπικών δεδομένων των ευρωπαίων πολιτών, προκειμένου να συμβάλει στην ανάπτυξη συστημάτων τεχνητής νοημοσύνης φιλικά προς το απόρρητο», γράφει.
Περνάει μόλις μια εβδομάδα χωρίς άλλο ένα σωρό κλήσεις υψηλού προφίλ από τεχνολόγους που ζητούν από τις ρυθμιστικές αρχές να αντιμετωπίσουν την τεχνητή νοημοσύνη. Και μόλις χθες, κατά τη διάρκεια της κατάθεσης στη Γερουσία των ΗΠΑ, ο CEO του OpenAI
Ο Sam Altman ζήτησε από τους νομοθέτες να ρυθμίσουν την τεχνολογία
προτείνοντας καθεστώς αδειοδότησης και δοκιμών.
Ωστόσο, οι ρυθμιστικές αρχές προστασίας δεδομένων στην Ευρώπη έχουν ήδη προχωρήσει πολύ – με το Clearview AI να έχει ήδη τιμωρηθεί ευρέως σε ολόκληρο το μπλοκ για κακή χρήση δεδομένων ανθρώπων, για παράδειγμα. Ενώ το chatbot AI, Replika, αντιμετώπισε πρόσφατη επιβολή στην Ιταλία.
Το ChatGPT του OpenAI προσέλκυσε επίσης μια πολύ δημόσια παρέμβαση από την ιταλική DPA στα τέλη Μαρτίου, η οποία οδήγησε την εταιρεία να βγει βιαστικά με νέες αποκαλύψεις και ελέγχους για τους χρήστες, επιτρέποντάς τους να εφαρμόζουν ορισμένα όρια στον τρόπο χρήσης των πληροφοριών τους.
Ταυτόχρονα, οι νομοθέτες της ΕΕ βρίσκονται στη διαδικασία σύναψης συμφωνίας για ένα πλαίσιο βασισμένο στον κίνδυνο για τη ρύθμιση των εφαρμογών της τεχνητής νοημοσύνης που πρότεινε το μπλοκ τον Απρίλιο του 2021.
Αυτό το πλαίσιο, ο νόμος της ΕΕ για την τεχνητή νοημοσύνη, θα μπορούσε να εγκριθεί μέχρι το τέλος του έτους και ο προγραμματισμένος κανονισμός είναι ένας άλλος λόγος που τονίζει το CNIL για την προετοιμασία του σχεδίου δράσης για την τεχνητή νοημοσύνη, λέγοντας ότι η εργασία θα «επιτρέψει επίσης την προετοιμασία για την έναρξη εφαρμογής του σχεδίου ευρωπαϊκού κανονισμού για την τεχνητή νοημοσύνη, το οποίο βρίσκεται αυτή τη στιγμή υπό συζήτηση».
Οι υφιστάμενες αρχές προστασίας δεδομένων (DPA) είναι πιθανό να διαδραματίσουν ρόλο στην επιβολή του νόμου περί τεχνητής νοημοσύνης, επομένως οι ρυθμιστικές αρχές που αναπτύσσουν κατανόηση και εμπειρογνωμοσύνη για την τεχνητή νοημοσύνη θα είναι ζωτικής σημασίας για την αποτελεσματική λειτουργία του καθεστώτος. Ενώ τα θέματα και οι λεπτομέρειες που επιλέγουν οι ΑΠΔ της ΕΕ επικεντρώνουν την προσοχή τους, πρόκειται να σταθμίσουν τις λειτουργικές παραμέτρους της τεχνητής νοημοσύνης στο μέλλον — σίγουρα στην Ευρώπη και, ενδεχομένως, πιο μακριά, δεδομένου του πόσο μπροστά είναι το μπλοκ όσον αφορά τη θέσπιση ψηφιακών κανόνων.
Απόξεση δεδομένων στο πλαίσιο
Σε ό,τι αφορά τη γενετική τεχνητή νοημοσύνη, η γαλλική ρυθμιστική αρχή απορρήτου δίνει ιδιαίτερη προσοχή στην πρακτική ορισμένων κατασκευαστών μοντέλων τεχνητής νοημοσύνης να αφαιρούν δεδομένα από το Διαδίκτυο για τη δημιουργία συνόλων δεδομένων για την εκπαίδευση συστημάτων τεχνητής νοημοσύνης, όπως μοντέλα μεγάλων γλωσσών (LLM), τα οποία μπορούν, για παράδειγμα, να αναλύουν τα φυσικά γλώσσα και να ανταποκρίνονται με ανθρώπινο τρόπο στις επικοινωνίες.
Λέει ότι ένας τομέας προτεραιότητας για την υπηρεσία AI της θα είναι «η προστασία των δημοσίως διαθέσιμων δεδομένων στον Ιστό από τη χρήση απόξεσης ή
ξύσιμο,
δεδομένων για το σχεδιασμό εργαλείων».
Αυτή είναι μια άβολη περιοχή για τους κατασκευαστές LLMs όπως το ChatGPT που έχουν βασιστεί στην αθόρυβη απόξεση τεράστιων ποσοτήτων δεδομένων ιστού για να επαναχρησιμοποιηθούν ως τροφή εκπαίδευσης. Όσοι έχουν συγκεντρώσει πληροφορίες ιστού που περιέχουν προσωπικά δεδομένα αντιμετωπίζουν μια συγκεκριμένη νομική πρόκληση στην Ευρώπη — όπου ο Γενικός Κανονισμός Προστασίας Δεδομένων (GDPR), που ισχύει από τον Μάιο του 2018, τους απαιτεί να έχουν νομική βάση για τέτοια επεξεργασία.
Υπάρχει ένας αριθμός νομικών βάσεων που ορίζονται στον GDPR, ωστόσο οι πιθανές επιλογές για μια τεχνολογία όπως το ChatGPT είναι περιορισμένες.
Κατά την άποψη της ιταλικής DPA, υπάρχουν μόνο δύο δυνατότητες: συναίνεση ή έννομα συμφέροντα. Και δεδομένου ότι το OpenAI δεν ζήτησε την άδειά τους από μεμονωμένους χρήστες του διαδικτύου πριν απορροφήσει τα δεδομένα τους, η εταιρεία βασίζεται πλέον σε αξίωση για έννομα συμφέροντα στην Ιταλία για την επεξεργασία. ένας ισχυρισμός που παραμένει υπό διερεύνηση από την τοπική ρυθμιστική αρχή,
Garante
. (Υπενθύμιση: Οι κυρώσεις GDPR μπορούν να κλιμακωθούν έως και το 4% του παγκόσμιου ετήσιου κύκλου εργασιών εκτός από τυχόν διορθωτικές εντολές.)
Ο πανευρωπαϊκός κανονισμός περιέχει περαιτέρω απαιτήσεις για τις οντότητες που επεξεργάζονται δεδομένα προσωπικού χαρακτήρα — όπως ότι η επεξεργασία πρέπει να είναι δίκαιη και διαφανής. Επομένως, υπάρχουν πρόσθετες νομικές προκλήσεις για εργαλεία όπως το ChatGPT για να αποφευχθεί η παραβίαση του νόμου.
Και — ιδίως — στο σχέδιο δράσης του, το CNIL της Γαλλίας τονίζει τη «δικαιοσύνη και τη διαφάνεια της επεξεργασίας δεδομένων που βασίζεται στη λειτουργία του [AI tools]Ως ιδιαίτερο ερώτημα ενδιαφέροντος που λέει ότι η Υπηρεσία Τεχνητής Νοημοσύνης και μια άλλη εσωτερική μονάδα, το Εργαστήριο Ψηφιακής Καινοτομίας CNIL, θα δώσουν προτεραιότητα για έλεγχο τους επόμενους μήνες.
Άλλοι δηλωμένοι τομείς προτεραιότητας που επισημαίνει το CNIL για το εύρος της τεχνητής νοημοσύνης είναι:
- την προστασία των δεδομένων που μεταδίδονται από τους χρήστες όταν χρησιμοποιούν αυτά τα εργαλεία, που κυμαίνονται από τη συλλογή τους (μέσω διεπαφής) έως την πιθανή επαναχρησιμοποίηση και επεξεργασία τους μέσω αλγορίθμων μηχανικής μάθησης·
- τις συνέπειες για τα δικαιώματα των ατόμων στα δεδομένα τους, τόσο σε σχέση με αυτά που συλλέγονται για την εκμάθηση μοντέλων όσο και σε εκείνα που ενδέχεται να παρέχονται από αυτά τα συστήματα, όπως το περιεχόμενο που δημιουργείται στην περίπτωση της γενετικής τεχνητής νοημοσύνης·
- την προστασία από μεροληψία και διακρίσεις που ενδέχεται να προκύψουν·
- τις άνευ προηγουμένου προκλήσεις ασφαλείας αυτών των εργαλείων.
Δίνοντας μαρτυρία σε μια επιτροπή της Γερουσίας των ΗΠΑ χθες, ο Άλτμαν ρωτήθηκε από αμερικανούς νομοθέτες σχετικά με την προσέγγιση της εταιρείας στην προστασία της ιδιωτικής ζωής και ο Διευθύνων Σύμβουλος του OpenAI προσπάθησε να πλαισιώσει στενά το θέμα ως αναφορά μόνο σε πληροφορίες που παρέχονται ενεργά από χρήστες του chatbot AI — σημειώνοντας, για παράδειγμα , ότι το ChatGPT επιτρέπει στους χρήστες να προσδιορίσουν ότι δεν θέλουν το ιστορικό συνομιλιών τους να χρησιμοποιείται ως δεδομένα εκπαίδευσης. (Ένα χαρακτηριστικό που δεν προσέφερε αρχικά, ωστόσο.)
Ερωτηθείς ποια συγκεκριμένα μέτρα έχουν ληφθεί για την προστασία του απορρήτου, ο Altman είπε στην επιτροπή της Γερουσίας: «Δεν εκπαιδευόμαστε σε δεδομένα που υποβάλλονται στο API μας. Επομένως, εάν είστε επιχειρηματικός πελάτης μας και υποβάλλετε δεδομένα, δεν εκπαιδευόμαστε καθόλου σε αυτό…
Εάν χρησιμοποιείτε το ChatGPT, μπορείτε να εξαιρεθείτε από την εκπαίδευση στα δεδομένα σας. Μπορείτε επίσης να διαγράψετε το ιστορικό συνομιλιών σας ή ολόκληρο τον λογαριασμό σας.”
Αλλά δεν είχε τίποτα να πει για τα δεδομένα που χρησιμοποιήθηκαν για την εκπαίδευση του μοντέλου στην αρχή.
Το στενό πλαίσιο του Altman για το τι σημαίνει προστασία της ιδιωτικής ζωής παρέκαμψε το θεμελιώδες ερώτημα της νομιμότητας των δεδομένων εκπαίδευσης. Ονομάστε το «πρωτότυπο αμάρτημα απορρήτου» της γενετικής τεχνητής νοημοσύνης, αν θέλετε. Αλλά είναι ξεκάθαρο ότι η εξάλειψη αυτού του θέματος θα γίνεται ολοένα και πιο δύσκολη για το OpenAI και τα παρόμοιά του που συλλέγουν δεδομένα καθώς οι ρυθμιστικές αρχές στην Ευρώπη συνεχίζουν με την επιβολή των υφιστάμενων νόμων περί απορρήτου της περιοχής σε ισχυρά συστήματα AI.
Στην περίπτωση του OpenAI, θα συνεχίσει να υπόκειται σε ένα συνονθύλευμα προσεγγίσεων επιβολής σε όλη την Ευρώπη, καθώς δεν έχει μια καθιερωμένη βάση στην περιοχή — κάτι που δεν εφαρμόζεται ο μηχανισμός one-stop-shop του GDPR (όπως συμβαίνει συνήθως για τη μεγάλη τεχνολογία ) επομένως, οποιαδήποτε DPA είναι αρμόδια να ρυθμίζει εάν πιστεύει ότι τα δεδομένα των τοπικών χρηστών υποβάλλονται σε επεξεργασία και τα δικαιώματά τους διακυβεύονται. Έτσι, ενώ η Ιταλία προχώρησε σκληρά νωρίτερα φέτος με μια παρέμβαση στο ChatGPT που επέβαλε διαταγή διακοπής επεξεργασίας παράλληλα με την έναρξη έρευνας για το εργαλείο, η γαλλική εποπτική αρχή ανακοίνωσε έρευνα μόλις τον Απρίλιο, ως απάντηση σε καταγγελίες. (Η Ισπανία έχει επίσης πει ότι διερευνά την τεχνολογία, και πάλι χωρίς καμία πρόσθετη ενέργεια ακόμη.)
Σε μια άλλη διαφορά μεταξύ των ΑΠΔ της ΕΕ, η
Το CNIL φαίνεται να ανησυχεί για την ανάκριση μιας ευρύτερης σειράς ζητημάτων από την προκαταρκτική λίστα της Ιταλίας — συμπεριλαμβανομένου του τρόπου με τον οποίο θα πρέπει να εφαρμόζεται η αρχή περιορισμού του σκοπού του GDPR σε μεγάλα γλωσσικά μοντέλα όπως το ChatGPT. Κάτι που υποδηλώνει ότι θα μπορούσε να καταλήξει να παραγγείλει μια πιο εκτεταμένη σειρά λειτουργικών αλλαγών εάν καταλήξει στο συμπέρασμα ότι ο GDPR παραβιάζεται.
«Το CNIL θα υποβάλει σύντομα σε διαβούλευση έναν οδηγό σχετικά με τους κανόνες που ισχύουν για την κοινή χρήση και την περαιτέρω χρήση δεδομένων», γράφει. «Αυτή η εργασία θα περιλαμβάνει το ζήτημα της επαναχρησιμοποίησης ελεύθερα προσβάσιμων δεδομένων στο διαδίκτυο και τώρα χρησιμοποιούνται για την εκμάθηση πολλών μοντέλων τεχνητής νοημοσύνης. Επομένως, αυτός ο οδηγός θα είναι σχετικός με ορισμένες από τις απαραίτητες επεξεργασίες δεδομένων για το σχεδιασμό συστημάτων τεχνητής νοημοσύνης, συμπεριλαμβανομένων των γενεσιουργών AI.
«Θα συνεχίσει επίσης το έργο του για το σχεδιασμό συστημάτων AI και τη δημιουργία βάσεων δεδομένων για μηχανική μάθηση. Αυτά θα οδηγήσουν σε αρκετές δημοσιεύσεις ξεκινώντας το καλοκαίρι του 2023, μετά τη διαβούλευση που έχει ήδη οργανωθεί με πολλούς παράγοντες, προκειμένου να παρασχεθούν συγκεκριμένες συστάσεις, ιδίως όσον αφορά το σχεδιασμό συστημάτων τεχνητής νοημοσύνης όπως το ChatGPT.»
Εδώ είναι τα υπόλοιπα θέματα που λέει η CNIL ότι θα αντιμετωπιστούν «σταδιακά» μέσω μελλοντικών δημοσιεύσεων και καθοδήγησης AI που παράγει:
- τη χρήση του συστήματος επιστημονικής έρευνας για τη δημιουργία και επαναχρησιμοποίηση βάσεων δεδομένων κατάρτισης·
- την εφαρμογή της αρχής του σκοπού σε AI γενικού σκοπού και βασικά μοντέλα, όπως μεγάλα γλωσσικά μοντέλα·
- την εξήγηση της κατανομής των ευθυνών μεταξύ των φορέων που απαρτίζουν τις βάσεις δεδομένων, εκείνων που συντάσσουν μοντέλα από αυτά τα δεδομένα και εκείνων που χρησιμοποιούν αυτά τα μοντέλα·
- τους κανόνες και τις βέλτιστες πρακτικές που ισχύουν για την επιλογή δεδομένων για εκπαίδευση, λαμβάνοντας υπόψη τις αρχές της ακρίβειας και της ελαχιστοποίησης των δεδομένων·
- τη διαχείριση των δικαιωμάτων των ατόμων, ιδίως των δικαιωμάτων πρόσβασης, διόρθωσης και εναντίωσης·
- τους ισχύοντες κανόνες για τη διάρκεια ζωής, ιδίως για τις βάσεις εκπαίδευσης και τα πιο πολύπλοκα μοντέλα που πρέπει να χρησιμοποιηθούν·
-
Τέλος, έχοντας επίγνωση ότι τα ζητήματα που εγείρονται από τα συστήματα τεχνητής νοημοσύνης δεν σταματούν στη σύλληψή τους, το CNIL επιδιώκει επίσης
ηθικούς προβληματισμούς
[following a report it published back in 2017] σχετικά με τη χρήση και την κοινή χρήση μοντέλων μηχανικής μάθησης, την πρόληψη και τη διόρθωση προκαταλήψεων και διακρίσεων ή την πιστοποίηση συστημάτων τεχνητής νοημοσύνης.
Όσον αφορά τον έλεγχο και τον έλεγχο των συστημάτων τεχνητής νοημοσύνης, η γαλλική ρυθμιστική αρχή ορίζει ότι οι ενέργειές της φέτος θα επικεντρωθούν σε τρεις τομείς: Συμμόρφωση με υπάρχον
θέση σχετικά με τη χρήση της «βελτιωμένης» βιντεοπαρακολούθησης
, το οποίο δημοσίευσε το 2022· τη χρήση της τεχνητής νοημοσύνης για την καταπολέμηση της απάτης (όπως η απάτη στην κοινωνική ασφάλιση)· και για τη διερεύνηση καταγγελιών.
Επιβεβαιώνει επίσης ότι έχει ήδη λάβει καταγγελίες σχετικά με το νομικό πλαίσιο για την εκπαίδευση και τη χρήση των γενεσιουργών AI — και λέει ότι εργάζεται για διευκρινίσεις εκεί.
«Το CNIL έχει λάβει, συγκεκριμένα, αρκετές καταγγελίες κατά της εταιρείας OpenAI που διαχειρίζεται την υπηρεσία ChatGPT και έχει ανοίξει διαδικασία ελέγχου», προσθέτει, επισημαίνοντας την ύπαρξη
ειδική ομάδα εργασίας που συστάθηκε πρόσφατα στο πλαίσιο του Ευρωπαϊκού Συμβουλίου Προστασίας Δεδομένων
να προσπαθήσει να συντονίσει τον τρόπο με τον οποίο διαφορετικές ευρωπαϊκές αρχές προσεγγίζουν τη ρύθμιση του chatbot τεχνητής νοημοσύνης (και να παράγουν αυτό που θεωρεί ως «εναρμονισμένη ανάλυση της επεξεργασίας δεδομένων που εφαρμόζεται από το εργαλείο OpenAI»).
Σε περαιτέρω προειδοποιητικά λόγια για τους κατασκευαστές συστημάτων AI που δεν ζήτησαν ποτέ την άδεια των ανθρώπων να χρησιμοποιήσουν τα δεδομένα τους και μπορεί να ελπίζουν σε μελλοντική συγχώρεση, το CNIL σημειώνει ότι θα δώσει ιδιαίτερη προσοχή στο εάν οι οντότητες που επεξεργάζονται προσωπικά δεδομένα για ανάπτυξη, εκπαίδευση ή χρήση Τα συστήματα AI έχουν:
- πραγματοποίησε εκτίμηση επιπτώσεων στην προστασία δεδομένων για την τεκμηρίωση των κινδύνων και τη λήψη μέτρων για τη μείωσή τους·
- έλαβε μέτρα για την ενημέρωση των πολιτών·
- μέτρα για την άσκηση των δικαιωμάτων των προσώπων προσαρμοσμένα στο συγκεκριμένο πλαίσιο.
Λοιπόν, ε, μην πείτε ότι δεν είχατε προειδοποιηθεί!
Όσον αφορά την υποστήριξη καινοτόμων παικτών τεχνητής νοημοσύνης που θέλουν να συμμορφώνονται με τους ευρωπαϊκούς κανόνες (και αξίες), το CNIL έχει ένα ρυθμιστικό sandbox σε λειτουργία εδώ και μερικά χρόνια — και ενθαρρύνει εταιρείες και ερευνητές τεχνητής νοημοσύνης που εργάζονται για την ανάπτυξη συστημάτων AI που παίζουν καλό με κανόνες προστασίας προσωπικών δεδομένων για να έρθετε σε επαφή (μέσω
).

