Το ChatGPT συνεχίζει την υπηρεσία στην Ιταλία μετά την προσθήκη αποκαλύψεων και ελέγχων απορρήτου
Λίγες ημέρες αφότου η OpenAI ανακοίνωσε ένα σύνολο ελέγχων απορρήτου για το δημιουργικό AI chatbot της, το ChatGPT, η υπηρεσία έγινε ξανά διαθέσιμη στους χρήστες στην Ιταλία – επιλύοντας (προς το παρόν) μια πρόωρη ρυθμιστική αναστολή σε ένα από τα 27 κράτη μέλη της Ευρωπαϊκής Ένωσης, ακόμη και καθώς συνεχίζεται η τοπική έρευνα για τη συμμόρφωσή της με τους κανόνες προστασίας δεδομένων της περιοχής.
Τη στιγμή της γραφής, οι χρήστες του διαδικτύου που περιηγούνται στο ChatGPT από μια ιταλική διεύθυνση IP δεν καλωσορίζονται πλέον από μια ειδοποίηση που τους ενημερώνει ότι η υπηρεσία είναι «απενεργοποιημένη για χρήστες στην Ιταλία». Αντ ‘αυτού, συναντούν ένα σημείωμα που λέει ότι η OpenAI είναι «στην ευχάριστη θέση να συνεχίσει να προσφέρει το ChatGPT στην Ιταλία».
Το αναδυόμενο παράθυρο συνεχίζει να ορίζει ότι οι χρήστες πρέπει να επιβεβαιώσουν ότι είναι 18+ ή 13+ με τη συγκατάθεση ενός γονέα ή κηδεμόνα για να χρησιμοποιήσουν την υπηρεσία – κάνοντας κλικ σε ένα κουμπί που δηλώνει “Πληρώ τις ηλικιακές απαιτήσεις της OpenAI”.
Το κείμενο της ειδοποίησης εφιστά επίσης την προσοχή στην Πολιτική Απορρήτου της OpenAI και συνδέεται με ένα άρθρο του κέντρου βοήθειας όπου η εταιρεία λέει ότι παρέχει πληροφορίες σχετικά με το «πώς αναπτύσσουμε και εκπαιδεύουμε το ChatGPT».
Οι αλλαγές στον τρόπο με τον οποίο η OpenAI παρουσιάζει το ChatGPT στους χρήστες στην Ιταλία αποσκοπούν στην ικανοποίηση ενός αρχικού συνόλου προϋποθέσεων που έθεσε η τοπική αρχή προστασίας δεδομένων (DPA) προκειμένου να συνεχίσει την υπηρεσία με διαχειριζόμενο ρυθμιστικό κίνδυνο.
Γρήγορη ανακεφαλαίωση της ιστορίας εδώ: Στα τέλη του περασμένου μήνα, η Garante της Ιταλίας διέταξε προσωρινή εντολή διακοπής της επεξεργασίας στο ChatGPT, λέγοντας ότι ανησυχεί ότι οι υπηρεσίες παραβιάζουν τους νόμους της ΕΕ για την προστασία των δεδομένων. Κίνησε επίσης έρευνα σχετικά με τις εικαζόμενες παραβιάσεις του Γενικού Κανονισμού για την Προστασία Δεδομένων (GDPR).
Η OpenAI ανταποκρίθηκε γρήγορα στην παρέμβαση με γεωγραφικό αποκλεισμό χρηστών με ιταλικές διευθύνσεις IP στις αρχές αυτού του μήνα.
Η κίνηση ακολουθήθηκε, μερικές εβδομάδες αργότερα, από την έκδοση από την Garante μιας λίστας μέτρων που είπε ότι η OpenAI πρέπει να εφαρμόσει προκειμένου να αρθεί η εντολή αναστολής μέχρι τα τέλη Απριλίου – συμπεριλαμβανομένης της προσθήκης ορίου ηλικίας για την αποτροπή της πρόσβασης ανηλίκων στην υπηρεσία και της τροποποίησης της νομικής βάσης που διεκδικείται για την επεξεργασία δεδομένων τοπικών χρηστών.
Η ρυθμιστική αρχή αντιμετώπισε κάποια πολιτικά πυρά στην Ιταλία και αλλού στην Ευρώπη για την παρέμβαση. Αν και δεν είναι η μόνη αρχή προστασίας δεδομένων που εγείρει ανησυχίες – και, νωρίτερα αυτό το μήνα, οι ρυθμιστικές αρχές του μπλοκ συμφώνησαν να ξεκινήσουν μια ομάδα εργασίας επικεντρωμένη στο ChatGPT με στόχο την υποστήριξη ερευνών και συνεργασίας σε τυχόν επιβολή.
Σε ένα δελτίο τύπου που εκδόθηκε σήμερα ανακοινώνοντας την επανέναρξη της υπηρεσίας στην Ιταλία, η Garante δήλωσε ότι η OpenAI της έστειλε μια επιστολή που περιγράφει λεπτομερώς τα μέτρα που εφαρμόστηκαν ως απάντηση στην προηγούμενη εντολή – γράφοντας: “Η OpenAI εξήγησε ότι είχε επεκτείνει τις πληροφορίες σε Ευρωπαίους χρήστες και μη χρήστες, ότι είχε τροποποιήσει και διευκρινίσει αρκετούς μηχανισμούς και ανέπτυξε επιδεκτικές λύσεις για να επιτρέψει στους χρήστες και μη χρήστες να ασκήσουν τα δικαιώματά τους. Με βάση αυτές τις βελτιώσεις, η OpenAI επανέφερε την πρόσβαση στο ChatGPT για τους Ιταλούς χρήστες».
Επεκτείνοντας τα βήματα που έλαβε η OpenAI με περισσότερες λεπτομέρειες, η DPA λέει ότι η OpenAI επέκτεινε την πολιτική απορρήτου της και παρείχε στους χρήστες και μη χρήστες περισσότερες πληροφορίες σχετικά με τα προσωπικά δεδομένα που υποβάλλονται σε επεξεργασία για την εκπαίδευση των αλγορίθμων της, συμπεριλαμβανομένης της οριοθέτησης ότι όλοι έχουν το δικαίωμα να εξαιρεθούν από μια τέτοια επεξεργασία – γεγονός που υποδηλώνει ότι η εταιρεία βασίζεται τώρα σε μια αξίωση νόμιμων συμφερόντων ως νομική βάση για την επεξεργασία δεδομένων για την εκπαίδευση των αλγορίθμων της (από τότε απαιτεί να προσφέρει ρήτρα εξαίρεσης).
Επιπλέον, η Garante αποκαλύπτει ότι η OpenAI έχει λάβει μέτρα για να παρέχει έναν τρόπο στους Ευρωπαίους να ζητούν τα δεδομένα τους να μην χρησιμοποιούνται για την εκπαίδευση της AI (τα αιτήματα μπορούν να υποβληθούν σε αυτήν μέσω μιας ηλεκτρονικής φόρμας) – και να τους παρέχει «μηχανισμούς» για τη διαγραφή των δεδομένων τους.
Είπε επίσης στη ρυθμιστική αρχή ότι δεν είναι σε θέση να διορθώσει το ελάττωμα των chatbots που δημιουργούν ψευδείς πληροφορίες σχετικά με κατονομαζόμενα άτομα σε αυτό το σημείο. Εξ ου και η θέσπιση «μηχανισμών που επιτρέπουν στα υποκείμενα των δεδομένων να επιτυγχάνουν τη διαγραφή πληροφοριών που θεωρούνται ανακριβείς».
Οι Ευρωπαίοι χρήστες που επιθυμούν να εξαιρεθούν από την επεξεργασία των προσωπικών τους δεδομένων για την εκπαίδευση της τεχνητής νοημοσύνης μπορούν επίσης να το κάνουν μέσω μιας φόρμας που έχει διαθέσει η OpenAI, η οποία σύμφωνα με την DPA θα «φιλτράρει έτσι τις συνομιλίες και το ιστορικό συνομιλιών τους από τα δεδομένα που χρησιμοποιούνται για αλγόριθμους εκπαίδευσης».
Έτσι, η παρέμβαση της ιταλικής DPA είχε ως αποτέλεσμα ορισμένες αξιοσημείωτες αλλαγές στο επίπεδο ελέγχου που προσφέρει το ChatGPT στους Ευρωπαίους.
Τούτου λεχθέντος, δεν είναι ακόμη σαφές εάν οι τροποποιήσεις που η OpenAI έσπευσε να εφαρμόσει θα (ή μπορούν) να προχωρήσουν αρκετά για να επιλύσουν όλες τις ανησυχίες GDPR που εγείρονται.
Για παράδειγμα, δεν είναι σαφές εάν τα προσωπικά δεδομένα των Ιταλών που χρησιμοποιήθηκαν για την εκπαίδευση του μοντέλου GPT ιστορικά, δηλαδή όταν αποξέστηκε το publiγ δεδομένα εκτός του Διαδικτύου, υποβλήθηκαν σε επεξεργασία με έγκυρη νόμιμη βάση — ή, πράγματι, εάν τα δεδομένα που χρησιμοποιήθηκαν για την εκπαίδευση μοντέλων προηγουμένως θα διαγραφούν ή μπορούν να διαγραφούν εάν οι χρήστες ζητήσουν τα δεδομένα τους να διαγραφούν τώρα.
Το μεγάλο ερώτημα παραμένει ποια νομική βάση είχε η OpenAI για να επεξεργαστεί τις πληροφορίες των ανθρώπων, τότε που η εταιρεία δεν ήταν τόσο ανοιχτή σχετικά με τα δεδομένα που χρησιμοποιούσε.
Η αμερικανική εταιρεία φαίνεται να ελπίζει να δεσμεύσει τις αντιρρήσεις που εγείρονται σχετικά με το τι κάνει με τις πληροφορίες των Ευρωπαίων, παρέχοντας ορισμένους περιορισμένους ελέγχους τώρα, που εφαρμόζονται σε νέα εισερχόμενα προσωπικά δεδομένα, με την ελπίδα ότι αυτό θολώνει το ευρύτερο ζήτημα όλων των περιφερειακών προσωπικών δεδομένων που έχει κάνει ιστορικά.
Ερωτηθείς για τις αλλαγές που έχει εφαρμόσει, ένας εκπρόσωπος της OpenAI έστειλε email στην TechCrunch αυτή τη συνοπτική δήλωση:
Το ChatGPT είναι ξανά διαθέσιμο στους χρήστες μας στην Ιταλία. Είμαστε ενθουσιασμένοι που τους καλωσορίζουμε πίσω και παραμένουμε αφοσιωμένοι στην προστασία της ιδιωτικότητάς τους. Έχουμε αντιμετωπίσει ή αποσαφηνίσει τα ζητήματα που έθεσε η Garante, συμπεριλαμβανομένων:
Εκτιμούμε τη συνεργασία του Garante και προσβλέπουμε σε συνεχιζόμενες εποικοδομητικές συζητήσεις.
Στο άρθρο του κέντρου βοήθειας, η OpenAI παραδέχεται ότι επεξεργάστηκε προσωπικά δεδομένα για να εκπαιδεύσει το ChatGPT, ενώ προσπαθεί να ισχυριστεί ότι δεν είχε πραγματικά την πρόθεση να το κάνει, αλλά τα πράγματα απλώς βρίσκονταν εκεί έξω στο Διαδίκτυο – ή όπως το θέτει: “Ένας μεγάλος όγκος δεδομένων στο διαδίκτυο σχετίζεται με ανθρώπους, επομένως οι πληροφορίες εκπαίδευσής μας περιλαμβάνουν παρεμπιπτόντως προσωπικές πληροφορίες. Δεν αναζητούμε ενεργά προσωπικές πληροφορίες για να εκπαιδεύσουμε τα μοντέλα μας».
Το οποίο διαβάζεται σαν μια ωραία προσπάθεια να αποφευχθεί η απαίτηση του GDPR να έχει έγκυρη νομική βάση για την επεξεργασία αυτών των προσωπικών δεδομένων που έτυχε να βρει.
Η OpenAI επεκτείνει περαιτέρω την υπεράσπισή της σε μια ενότητα (καταφατικά) με τίτλο «πώς συμμορφώνεται η ανάπτυξη του ChatGPT με τους νόμους περί απορρήτου;» — στην οποία υποδηλώνει ότι έχει χρησιμοποιήσει τα δεδομένα των ανθρώπων νόμιμα επειδή Α) σκόπευε το chatbot της να είναι επωφελές. Β) δεν είχε άλλη επιλογή, καθώς απαιτούνταν πολλά δεδομένα για την κατασκευή της τεχνολογίας AI. και Γ) ισχυρίζεται ότι δεν είχε σκοπό να επηρεάσει αρνητικά τα άτομα.
«Για τους λόγους αυτούς, βασίζουμε τη συλλογή και χρήση προσωπικών πληροφοριών που περιλαμβάνονται στην εκπαίδευση πληροφοριών σχετικά με τα νόμιμα συμφέροντα σύμφωνα με τους νόμους περί απορρήτου όπως ο GDPR», γράφει επίσης, προσθέτοντας: «Για να εκπληρώσουμε τις υποχρεώσεις συμμόρφωσής μας, ολοκληρώσαμε επίσης μια εκτίμηση επιπτώσεων στην προστασία δεδομένων για να διασφαλίσουμε ότι συλλέγουμε και χρησιμοποιούμε αυτές τις πληροφορίες νόμιμα και υπεύθυνα».
Έτσι, και πάλι, η υπεράσπιση της OpenAI σε μια κατηγορία για παραβίαση του νόμου περί προστασίας δεδομένων ουσιαστικά συνοψίζεται σε: «Αλλά δεν εννοούσαμε τίποτα κακό αξιωματικό!»
Η εξήγησή του προσφέρει επίσης κάποιο έντονο κείμενο για να τονίσει έναν ισχυρισμό ότι δεν χρησιμοποιεί αυτά τα δεδομένα για τη δημιουργία προφίλ σχετικά με άτομα. επικοινωνήστε μαζί τους ή διαφημιστείτε σε αυτούς. ή προσπαθήστε να τους πουλήσετε οτιδήποτε. Κανένα από τα οποία δεν έχει σημασία για το αν οι δραστηριότητες επεξεργασίας δεδομένων της έχουν παραβιάσει τον GDPR ή όχι.
Η ιταλική DPA μας επιβεβαίωσε ότι η έρευνά της για αυτό το σημαντικό ζήτημα συνεχίζεται.
Στην ενημέρωσή της, η Garante σημειώνει επίσης ότι αναμένει από την OpenAI να συμμορφωθεί με πρόσθετα αιτήματα που ορίζονται στην εντολή της 11ης Απριλίου – επισημαίνοντας την απαίτηση να εφαρμόσει ένα σύστημα επαλήθευσης ηλικίας (για να αποτρέψει πιο σθεναρά την πρόσβαση ανηλίκων στην υπηρεσία). και να διεξάγει μια τοπική ενημερωτική εκστρατεία για να ενημερώσει τους Ιταλούς σχετικά με τον τρόπο επεξεργασίας των δεδομένων τους και το δικαίωμά τους να εξαιρεθούν από την επεξεργασία των προσωπικών τους δεδομένων για την εκπαίδευση των αλγορίθμων της.
“Η ιταλική SA [supervisory authority] αναγνωρίζει τα βήματα προόδου που έχει κάνει η OpenAI για να συνδυάσει τις τεχνολογικές εξελίξεις με τον σεβασμό των δικαιωμάτων των ατόμων και ελπίζει ότι η εταιρεία θα συνεχίσει τις προσπάθειές της να συμμορφωθεί με την ευρωπαϊκή νομοθεσία για την προστασία των δεδομένων», προσθέτει, προτού υπογραμμίσει ότι αυτό είναι μόνο το πρώτο πέρασμα σε αυτόν τον ρυθμιστικό χορό.
Ergo, όλοι οι διάφοροι ισχυρισμοί της OpenAI ότι είναι 100% καλόπιστοι μένουν να δοκιμαστούν σθεναρά.