Το σχέδιο νομοθεσίας της ΕΕ θα απαγορεύσει την τεχνητή νοημοσύνη για μαζική βιομετρική επιτήρηση και προγνωστική αστυνόμευση

Η ΕΕ έχει κάνει ένα βήμα πιο κοντά στην επιβολή ισχυρών κανονισμών για την τεχνητή νοημοσύνη,

σύνταξη νέων διασφαλίσεων

που θα απαγόρευε ένα ευρύ φάσμα επικίνδυνων περιπτώσεων χρήσης.

Αυτά περιλαμβάνουν απαγορεύσεις για προγράμματα μαζικής αναγνώρισης προσώπου σε δημόσιους χώρους και αλγόριθμους πρόβλεψης αστυνόμευσης που προσπαθούν να εντοπίσουν μελλοντικούς παραβάτες χρησιμοποιώντας προσωπικά δεδομένα. Ο κανονισμός απαιτεί επίσης τη δημιουργία μιας δημόσιας βάσης δεδομένων με συστήματα τεχνητής νοημοσύνης «υψηλού κινδύνου» που αναπτύσσονται από δημόσιες και κυβερνητικές αρχές, έτσι ώστε οι πολίτες της ΕΕ να μπορούν να ενημερώνονται για το πότε και πώς επηρεάζονται από αυτήν την τεχνολογία.

Ο εν λόγω νόμος είναι ένα νέο σχέδιο νόμου της ΕΕ για την τεχνητή νοημοσύνη, το οποίο εγκρίθηκε σήμερα από δύο βασικές επιτροπές: την Επιτροπή Εσωτερικής Αγοράς και την Επιτροπή Πολιτικών Ελευθεριών. Αυτές οι επιτροπές αποτελούνται από ευρωβουλευτές (μέλη του Ευρωπαϊκού Κοινοβουλίου) που έχουν επιφορτιστεί με την επίβλεψη της εξέλιξης της νομοθεσίας. Ενέκριναν το τελικό σχέδιο με 84 ψήφους υπέρ, επτά κατά και 12 αποχές.

«Νομίζω ότι έχουν γίνει τεράστιες θετικές αλλαγές στο κείμενο».

Ο ίδιος ο νόμος AI είναι ένα εκτεταμένο έγγραφο που βρίσκεται στα σκαριά εδώ και χρόνια, με την έκρηξη του ενδιαφέροντος για τα εργαλεία παραγωγής τεχνητής νοημοσύνης φέτος να επιβάλλει μια σειρά από σημαντικές αλλαγές της τελευταίας στιγμής. Αυτή η επιπλέον προσοχή, ωστόσο, φαίνεται να έχει επικεντρώσει τους νομοθέτες στους πιθανούς κινδύνους αυτής της ταχέως εξελισσόμενης τεχνολογίας. Οι υπεύθυνοι της εκστρατείας λένε ότι η έκδοση του νόμου που εγκρίθηκε σήμερα το πρωί – η οποία εξακολουθεί να αντιμετωπίζει πιθανές αλλαγές – είναι εξαιρετικά ευπρόσδεκτη.

«Είναι συντριπτικά καλά νέα», είπε ο Daniel Leufer, ανώτερος αναλυτής πολιτικής στη μη κερδοσκοπική Access Now.

Το χείλος

. «Νομίζω ότι έχουν γίνει τεράστιες θετικές αλλαγές στο κείμενο».

“[It’s] παγκόσμια σημαντική», είπε η Sarah Chander, ανώτερη σύμβουλος πολιτικής στην ομάδα ψηφιακής υπεράσπισης των Ευρωπαϊκών Ψηφιακών Δικαιωμάτων.

Το χείλος

. «Ποτέ ο δημοκρατικός βραχίονας ενός περιφερειακού μπλοκ όπως η ΕΕ δεν έκανε τόσο σημαντικό βήμα για την απαγόρευση των χρήσεων τεχνολογίας από την άποψη των ανθρωπίνων δικαιωμάτων».

Όπως προτείνει ο Chander, είναι πιθανό αυτοί οι νόμοι να επηρεάσουν χώρες σε όλο τον κόσμο. Η ΕΕ είναι μια τόσο σημαντική αγορά που οι εταιρείες τεχνολογίας συμμορφώνονται συχνά με τους κανονισμούς που ισχύουν για την ΕΕ σε παγκόσμια κλίμακα, προκειμένου να μειώσουν την τριβή της διατήρησης πολλαπλών συνόλων προτύπων. Οι πληροφορίες που απαιτεί η ΕΕ για συστήματα τεχνητής νοημοσύνης θα είναι επίσης διαθέσιμες παγκοσμίως, ωφελώντας πιθανώς τους χρήστες στις ΗΠΑ, το Ηνωμένο Βασίλειο και αλλού.


Ο νόμος για την τεχνητή νοημοσύνη θα ταξινομεί διαφορετικά συστήματα τεχνητής νοημοσύνης με βάση το επίπεδο κινδύνου τους.


Εικόνα: Ευρωπαϊκή Επιτροπή

Οι κύριες αλλαγές στον νόμο που εγκρίθηκε σήμερα είναι μια σειρά απαγορεύσεων σε αυτό που το Ευρωπαϊκό Κοινοβούλιο περιγράφει ως «παρεμβατικές και μεροληπτικές χρήσεις συστημάτων τεχνητής νοημοσύνης». Σύμφωνα με το Κοινοβούλιο, οι απαγορεύσεις — διευρυμένες από έναν αρχικό κατάλογο τεσσάρων — επηρεάζουν τις ακόλουθες περιπτώσεις χρήσης:


  • Απομακρυσμένα βιομετρικά συστήματα αναγνώρισης «σε πραγματικό χρόνο» σε χώρους προσβάσιμους από το κοινό.

  • «Αποστολή» απομακρυσμένων βιομετρικών συστημάτων ταυτοποίησης, με μόνη εξαίρεση τις αρχές επιβολής του νόμου για τη δίωξη σοβαρών εγκλημάτων και μόνο μετά από δικαστική εξουσιοδότηση.

  • Συστήματα βιομετρικής κατηγοριοποίησης που χρησιμοποιούν ευαίσθητα χαρακτηριστικά (π.χ. φύλο, φυλή, εθνικότητα, ιθαγένεια, θρησκεία, πολιτικός προσανατολισμός).

  • Συστήματα πρόβλεψης αστυνόμευσης (με βάση το προφίλ, την τοποθεσία ή την προηγούμενη εγκληματική συμπεριφορά).

  • Συστήματα αναγνώρισης συναισθημάτων στην επιβολή του νόμου, τη διαχείριση των συνόρων, τους χώρους εργασίας και τα εκπαιδευτικά ιδρύματα. και

  • Αδιάκριτη απόξεση βιομετρικών δεδομένων από μέσα κοινωνικής δικτύωσης ή πλάνα CCTV για τη δημιουργία βάσεων δεδομένων αναγνώρισης προσώπου (παραβίαση των ανθρωπίνων δικαιωμάτων και του δικαιώματος στην ιδιωτική ζωή).

Εκτός από τις απαγορεύσεις, το ενημερωμένο προσχέδιο εισάγει νέα μέτρα που στοχεύουν στον έλεγχο των λεγόμενων «τεχνητής νοημοσύνης γενικής χρήσης» ή «θεμελιωδών» συστημάτων τεχνητής νοημοσύνης — μοντέλα τεχνητής νοημοσύνης μεγάλης κλίμακας που μπορούν να χρησιμοποιηθούν σε μια σειρά χρήσεων. Αυτή είναι μια κακώς καθορισμένη κατηγορία ακόμη και εντός της νομοθεσίας της ΕΕ, αλλά προορίζεται να εφαρμοστεί σε συστήματα τεχνητής νοημοσύνης με ένταση πόρων που έχουν κατασκευαστεί από τεχνολογικούς γίγαντες όπως η Microsoft, η Google και το OpenAI. Αυτά περιλαμβάνουν μοντέλα γλώσσας τεχνητής νοημοσύνης όπως το GPT-4 και το ChatGPT καθώς και γεννήτριες εικόνων AI όπως το Stable Diffusion, το Midjourney και το DALL-E.

Το σχέδιο νόμου επιβάλλει νέες υποχρεώσεις σε συστήματα τεχνητής νοημοσύνης μεγάλης κλίμακας όπως το ChatGPT

Σύμφωνα με την προτεινόμενη νομοθεσία, οι δημιουργοί αυτών των συστημάτων θα έχουν νέες υποχρεώσεις για την αξιολόγηση και τον μετριασμό διαφόρων κινδύνων προτού διατεθούν αυτά τα εργαλεία. Αυτά περιλαμβάνουν την αξιολόγηση της περιβαλλοντικής ζημίας από την εκπαίδευση αυτών των συστημάτων, τα οποία συχνά είναι ενεργοβόρα, και τον εξαναγκασμό των εταιρειών να αποκαλύπτουν «τη χρήση των δεδομένων εκπαίδευσης που προστατεύονται από τη νομοθεσία περί πνευματικών δικαιωμάτων».

Η τελευταία ρήτρα θα μπορούσε να έχει σημαντικό αντίκτυπο στις ΗΠΑ, όπου οι κάτοχοι πνευματικών δικαιωμάτων έχουν ξεκινήσει μια σειρά αγωγών κατά των δημιουργών παραγωγών εικόνων AI για χρήση των δεδομένων τους χωρίς συγκατάθεση. Πολλές εταιρείες τεχνολογίας όπως η Google και η OpenAI έχουν αποφύγει αυτού του είδους τις νομικές προκλήσεις αρνούμενοι απλώς να αποκαλύψουν ποια δεδομένα εκπαιδεύουν τα συστήματά τους (συνήθως ισχυρίζονται ότι αυτές οι πληροφορίες είναι εμπορικό μυστικό). Εάν η ΕΕ αναγκάσει τις εταιρείες να αποκαλύψουν δεδομένα εκπαίδευσης, θα μπορούσε να ανοίξει αγωγές στις ΗΠΑ και αλλού.

Μια άλλη βασική διάταξη στο σχέδιο νόμου για την τεχνητή νοημοσύνη είναι η δημιουργία μιας βάσης δεδομένων με συστήματα τεχνητής νοημοσύνης γενικής χρήσης και υψηλού κινδύνου για να εξηγηθεί πού, πότε και πώς αναπτύσσονται στην ΕΕ.

«Αυτή η βάση δεδομένων θα πρέπει να είναι ελεύθερα και δημόσια προσβάσιμη, εύκολα κατανοητή και μηχανικά αναγνώσιμη», αναφέρει το προσχέδιο. «Η βάση δεδομένων θα πρέπει επίσης να είναι φιλική προς τον χρήστη και εύκολα πλοηγήσιμη, με λειτουργίες αναζήτησης τουλάχιστον που επιτρέπουν στο ευρύ κοινό να αναζητά τη βάση δεδομένων για συγκεκριμένα συστήματα υψηλού κινδύνου, τοποθεσίες, κατηγορίες κινδύνου [and] λέξεις-κλειδιά.”

Η δημιουργία μιας τέτοιας βάσης δεδομένων ήταν ένα μακροχρόνιο αίτημα των ακτιβιστών για τα ψηφιακά δικαιώματα, οι οποίοι λένε ότι το κοινό συχνά πειραματίζεται άθελά του σε συστήματα μαζικής παρακολούθησης και τα δεδομένα του συλλέγονται χωρίς τη συγκατάθεση για την εκπαίδευση εργαλείων τεχνητής νοημοσύνης.

«Ένα από τα μεγάλα προβλήματα είναι ότι δεν ξέρουμε τι [AI systems] χρησιμοποιούνται μέχρι να συμβεί κακό», λέει ο Leufer. Δίνει το παράδειγμα του σκανδάλου των ολλανδικών παροχών, στο οποίο ένας αλγόριθμος που χρησιμοποιεί η κυβέρνηση

ψευδώς κατηγορούμενοι χιλιάδες

απλήρωτων φορολογικών λογαριασμών. Η βάση δεδομένων, λέει, θα βοηθήσει τους πολίτες της ΕΕ να οπλιστούν με πληροφορίες και θα διευκολύνει τα άτομα και τις ομάδες να «χρησιμοποιήσουν πλήρως τους υπάρχοντες νόμους».

Ο Leufer σημειώνει ότι αυτός ο σκοπός υπονομεύεται κάπως από το γεγονός ότι η βάση δεδομένων είναι υποχρεωτική μόνο για συστήματα που αναπτύσσονται από δημόσιες και κυβερνητικές αρχές (είναι εθελοντική μόνο στον ιδιωτικό τομέα), αλλά ότι η δημιουργία της εξακολουθεί να αποτελεί ένα βήμα προς τα εμπρός για τη διαφάνεια.

Ορισμένες διατάξεις της νομοθεσίας θα προκαλέσουν «μεγάλη κόντρα» με τα κράτη μέλη της ΕΕ

Ωστόσο, ο νόμος AI εξακολουθεί να υπόκειται σε αλλαγές. Μετά την έγκρισή του σήμερα από τις κοινοβουλευτικές επιτροπές της ΕΕ, θα βρεθεί αντιμέτωπος με ψηφοφορία στην ολομέλεια τον επόμενο μήνα προτού προχωρήσει σε τριμερείς διαλόγους — μια σειρά από κεκλεισμένων των θυρών διαπραγματεύσεων στις οποίες θα συμμετέχουν τα κράτη μέλη της ΕΕ και τα όργανα ελέγχου του μπλοκ.

Ο Τσάντερ λέει ότι ορισμένες από τις απαγορεύσεις που εκτιμούν περισσότερο οι αγωνιστές – συμπεριλαμβανομένης της βιομετρικής επιτήρησης και της προγνωστικής αστυνόμευσης – θα προκαλέσουν «μεγάλη μάχη» στους τριμερείς διαλόγους. «Τα κράτη μέλη υποστήριξαν ότι αυτές οι χρήσεις της τεχνητής νοημοσύνης είναι απαραίτητες για την καταπολέμηση του εγκλήματος και τη διατήρηση της ασφάλειας», λέει ο Chander, σημειώνοντας ότι, ταυτόχρονα, «οι ειδικοί σε θέματα δικαιωμάτων υποστήριξαν ότι η επιτήρηση δεν ισοδυναμεί με ασφάλεια, και στην πραγματικότητα αυτές οι χρήσεις της τεχνητής νοημοσύνης … ανακατευθύνει την αστυνόμευση και την επιτήρηση σε ήδη περιθωριοποιημένες και υπερβολικά αστυνομευόμενες κοινότητες».

Μετά από τριμερείς διαλόγους, ο νόμος για την τεχνητή νοημοσύνη θα πρέπει να εγκριθεί πριν από την άνοιξη του 2024 – μια στενή ανατροπή για ένα τόσο τεράστιο νομοσχέδιο.


theverge.com



You might also like


Leave A Reply



Cancel Reply

Your email address will not be published.