Ο ισχυρός νόμος AI της ΕΕ είναι εδώ. Είναι όμως πολύ αργά;



Το πλαίσιο απαγορεύει τη μαζική, μη στοχευμένη απόξεση εικόνων προσώπων από το διαδίκτυο ή πλάνα

για τη δημιουργία μιας βιομετρικής βάσης δεδομένων.


ΚατάθεσηΦωτογραφίες


Αξιωματούχοι της Ευρωπαϊκής Ένωσης έγραψαν ιστορία τεχνολογικής πολιτικής την περασμένη εβδομάδα

υπομένοντας 36 ώρες εξαντλητικής συζήτησης

προκειμένου να καταλήξουμε επιτέλους σε ένα πρώτο στο είδος του, ολοκληρωμένο πλαίσιο ασφάλειας και διαφάνειας της τεχνητής νοημοσύνης που ονομάζεται νόμος AI. Οι υποστηρικτές της νομοθεσίας και οι ειδικοί σε θέματα ασφάλειας τεχνητής νοημοσύνης είπαν

PopSci

πιστεύουν ότι οι νέες κατευθυντήριες γραμμές είναι οι ισχυρότερες του είδους τους παγκοσμίως και θα μπορούσαν να αποτελέσουν παράδειγμα προς μίμηση για άλλα έθνη.

Το νομικά δεσμευτικό

πλαίσια

θέσει κρίσιμες νέες απαιτήσεις διαφάνειας για το OpenAI και άλλους παραγωγούς προγραμματιστές τεχνητής νοημοσύνης. Επίσης, χαράσσει πολλές κόκκινες γραμμές που απαγορεύουν ορισμένες από τις πιο αμφιλεγόμενες χρήσεις της τεχνητής νοημοσύνης, από τη σάρωση αναγνώρισης προσώπου σε πραγματικό χρόνο και τη λεγόμενη αναγνώριση συναισθημάτων έως τις τεχνικές προγνωστικής αστυνόμευσης. Αλλά μπορεί να υπάρχει πρόβλημα με την παρασκευή κάτω από την επιφάνεια. Ακόμη και όταν ψηφιστεί ο νόμος, οι αστυνομικοί της τεχνητής νοημοσύνης της Ευρώπης δεν θα είναι σε θέση να επιβάλουν κανέναν από αυτούς τους κανόνες το νωρίτερο μέχρι το 2025. Μέχρι τότε, ο καθένας μπορεί να μαντέψει πώς θα μοιάζει το συνεχώς εξελισσόμενο τοπίο της τεχνητής νοημοσύνης.


Τι είναι ο νόμος της ΕΕ για την τεχνητή νοημοσύνη;

Ο νόμος της ΕΕ για την τεχνητή νοημοσύνη χωρίζει τα εργαλεία και τις εφαρμογές τεχνητής νοημοσύνης σε τέσσερις διακριτές «κατηγορίες κινδύνου» με εκείνες που βρίσκονται στο υψηλότερο άκρο του φάσματος να εκτίθενται στον πιο έντονο ρυθμιστικό έλεγχο. Τα συστήματα τεχνητής νοημοσύνης που θεωρούνται υψηλού κινδύνου, τα οποία θα περιλαμβάνουν αυτοοδηγούμενα

, εργαλεία διαχείρισης ζωτικής σημασίας υποδομής, ιατρικές συσκευές και συστήματα βιομετρικής ταυτοποίησης μεταξύ άλλων, θα πρέπει να υποβάλλονται σε αξιολογήσεις επιπτώσεων των θεμελιωδών δικαιωμάτων, να τηρούν αυστηρές νέες απαιτήσεις διαφάνειας και να είναι εγγεγραμμένα σε δημόσια βάση δεδομένων της ΕΕ. Οι εταιρείες που είναι υπεύθυνες για αυτά τα συστήματα θα υπόκεινται επίσης σε πρακτικές παρακολούθησης και τήρησης αρχείων για να διασφαλιστεί ότι οι ρυθμιστικές αρχές της ΕΕ δεν θέτουν σε κίνδυνο την ασφάλεια ή τα θεμελιώδη ανθρώπινα δικαιώματα.

Είναι σημαντικό εδώ να σημειωθεί ότι η ΕΕ πρέπει ακόμη να ψηφίσει για τον νόμο και η τελική έκδοση του κειμένου δεν έχει δημοσιοποιηθεί. Η τελική ψηφοφορία για την πρεσβεία αναμένεται να γίνει στις αρχές του 2024.

«Ένα τεράστιο μέρος του αν αυτός ο νόμος έχει δόντια και εάν μπορεί να αποτρέψει τη ζημιά θα εξαρτηθεί από αυτά τα φαινομενικά πολύ πιο τεχνικά και λιγότερο ενδιαφέροντα μέρη».

Ο νόμος AI προχωρά ένα βήμα παραπέρα και απαγορεύει οριστικά άλλες περιπτώσεις χρήσης. Συγκεκριμένα, το πλαίσιο απαγορεύει τη μαζική, μη στοχευμένη απόξεση εικόνων προσώπων από το διαδίκτυο ή πλάνα CCTV για τη δημιουργία βιομετρικής βάσης δεδομένων. Αυτό θα μπορούσε ενδεχομένως να επηρεάσει γνωστές startups αναγνώρισης προσώπου όπως το Clearview AI και το PimEyes, οι οποίες

σύμφωνα με πληροφορίες

ξύστε το δημόσιο διαδίκτυο για δισεκατομμύρια σαρώσεις προσώπων. είπε ο Jack Mulcaire, Γενικός Σύμβουλος της Clearview AI

PopSci

δεν δραστηριοποιείται ούτε προσφέρει τα προϊόντα της στην ΕΕ. Η PimEyes δεν απάντησε αμέσως στο αίτημά μας για σχολιασμό.

Αναγνώριση συναισθημάτων, η οποία

αμφιλεγόμενα

οι προσπάθειες χρήσης βιομετρικών σαρώσεων για την ανίχνευση των συναισθημάτων ή της ψυχικής κατάστασης ενός ατόμου, θα απαγορευθούν στο χώρο εργασίας και στα σχολεία. Άλλα συστήματα τεχνητής νοημοσύνης που «χειραγωγούν την ανθρώπινη συμπεριφορά για να παρακάμψουν την ελεύθερη βούλησή τους» είναι παρόμοια

απαγορευμένος

. Συστήματα «κοινωνικής βαθμολογίας» που βασίζονται σε AI, όπως αυτά

αναπτύχθηκε διαβόητα στην ηπειρωτική Κίνα

εμπίπτουν επίσης στην κατηγορία των απαγορευμένων.

Οι εταιρείες τεχνολογίας που διαπίστωσαν ότι παρακάμπτουν αυτούς τους κανόνες ή πιέζουν για απαγορευμένες εφαρμογές ενδέχεται να δουν πρόστιμα που κυμαίνονται μεταξύ 1,5% και 7% των συνολικών εσόδων τους, ανάλογα με την παραβίαση και το μέγεθος της εταιρείας. Αυτό το σύστημα κυρώσεων είναι αυτό που δίνει δόντια στον νόμο της ΕΕ για την τεχνητή νοημοσύνη και που τον διαχωρίζει θεμελιωδώς από τα άλλα

εθελοντικές δεσμεύσεις διαφάνειας και ηθικής

που εξασφάλισε πρόσφατα η κυβέρνηση Μπάιντεν στις ΗΠΑ. Ο Λευκός Οίκος του Μπάιντεν υπέγραψε επίσης πρόσφατα ένα πρώτο στο είδος του εκτελεστικό διάταγμα τεχνητής νοημοσύνης που εκθέτει το όραμά του για τη μελλοντική ρύθμιση της τεχνητής νοημοσύνης των ΗΠΑ.

Στο άμεσο μέλλον, μεγάλες εταιρείες τεχνολογίας των ΗΠΑ όπως η OpenAI και η Google που λειτουργούν «συστήματα τεχνητής νοημοσύνης γενικού σκοπού» θα πρέπει να ενημερώνουν τους αξιωματούχους της ΕΕ σχετικά με τον τρόπο εκπαίδευσης των μοντέλων τους, να αναφέρουν περιλήψεις των τύπων δεδομένων που χρησιμοποιούν για την εκπαίδευση αυτά τα μοντέλα και να δημιουργήσουν μια πολιτική που αναγνωρίζει ότι θα συμφωνήσουν να συμμορφωθούν με τη νομοθεσία της ΕΕ για τα πνευματικά δικαιώματα. Γενικά μοντέλα που θεωρείται ότι αποτελούν «συστημικό κίνδυνο», μια ετικέτα

Bloomberg

Οι εκτιμήσεις επί του παρόντος περιλαμβάνουν μόνο το GPT του OpenAI, θα υπόκεινται σε αυστηρότερο σύνολο κανόνων. Αυτές θα μπορούσαν να περιλαμβάνουν απαιτήσεις που αναγκάζουν τον κατασκευαστή του μοντέλου να αναφέρει τη χρήση ενέργειας του εργαλείου και τη συμμόρφωση με την ασφάλεια στον κυβερνοχώρο, καθώς και εκ

να εκτελούν ασκήσεις κόκκινης ομαδικότητας για να εντοπίσουν και ενδεχομένως να μετριάσουν τα σημάδια συστημικού κινδύνου.

Τα μοντέλα τεχνητής νοημοσύνης που δημιουργούνται και είναι ικανά να δημιουργήσουν δυνητικά παραπλανητικά «deepfake» μέσα θα απαιτηθούν για να χαρακτηριστούν με σαφήνεια αυτές οι δημιουργίες ως δημιουργημένες από AI. Άλλες εταιρείες τεχνητής νοημοσύνης των ΗΠΑ που δημιουργούν εργαλεία που εμπίπτουν στην κατηγορία κινδύνου «μη αποδεκτή» του νόμου περί τεχνητής νοημοσύνης πιθανότατα δεν θα μπορούν πλέον να συνεχίσουν να δραστηριοποιούνται στην ΕΕ όταν η νομοθεσία τεθεί επίσημα σε ισχύ.


[ Related:


“The White House’s plan to deal with AI is as you’d expect”


]

Ο εκτελεστικός διευθυντής του Ινστιτούτου AI Now Amba Kak Tod μίλησε θετικά για τον νόμο AI, λέγοντας

PopSci

ήταν μια «κρίσιμη αντίστιξη σε μια χρονιά που κατά τα άλλα ήταν σε μεγάλο βαθμό ένας κατακλυσμός αδύναμων εθελοντικών προτάσεων». Ο Τοντ είπε ότι οι κόκκινες γραμμές που απαγορεύουν τις ιδιαίτερα απειλητικές χρήσεις της τεχνητής νοημοσύνης και τις νέες απαιτήσεις διαφάνειας και επιμέλειας ήταν ένα ευπρόσδεκτο «βήμα προς τη σωστή κατεύθυνση».

Αν και οι υποστηρικτές της προσέγγισης της ΕΕ που βασίζεται στον κίνδυνο λένε ότι είναι χρήσιμο να αποφευχθεί η υποβολή πιο πεζών περιπτώσεων χρήσης τεχνητής νοημοσύνης σε αυστηρούς κανονισμούς, ορισμένοι ευρωπαίοι εμπειρογνώμονες σε θέματα ιδιωτικότητας ανησυχούν ότι η δομή δίνει πολύ λίγη έμφαση στα θεμελιώδη ανθρώπινα δικαιώματα και υποβαθμίζει την προσέγγιση της psst νομοθεσίας της ΕΕ όπως τον Γενικό Κανονισμό Προστασίας Δεδομένων του 2018 (

) και τον Χάρτη των Θεμελιωδών Ανθρωπίνων Δικαιωμάτων της Ευρωπαϊκής Ένωσης (CFREU).

«Η προσέγγιση που βασίζεται στον κίνδυνο βρίσκεται σε ένταση με τα υπόλοιπα πλαίσια της ΕΕ για τα ανθρώπινα δικαιώματα», είπε η Ανώτερη Σύμβουλος Πολιτικής της Ευρωπαϊκής Ψηφιακών Δικαιωμάτων, Ella Jakubowska.

PopSci

κατά τη διάρκεια μιας τηλεφωνικής συνέντευξης. «Ολόκληρο το πλαίσιο που ήταν στο τραπέζι από την αρχή ήταν ελαττωματικό».

Η προσέγγιση βάσει κινδύνου του νόμου για την τεχνητή νοημοσύνη, προειδοποίησε η Jakubowska, μπορεί να μην παρέχει πάντα μια πλήρη, σαφή εικόνα του πώς ορισμένα φαινομενικά χαμηλού κινδύνου εργαλεία τεχνητής νοημοσύνης θα μπορούσαν να χρησιμοποιηθούν στο μέλλον. Η Jakubowska είπε ότι οι υπερασπιστές των δικαιωμάτων όπως η ίδια θα προτιμούσαν υποχρεωτικές αξιολογήσεις κινδύνου

όλα

προγραμματιστές συστημάτων AI.

«Συνολικά είναι πολύ απογοητευτικό», πρόσθεσε.

Ο Daniel Leufer, Ανώτερος Αναλυτής Πολιτικής για την οργάνωση ψηφιακών δικαιωμάτων AccessNow επανέλαβε αυτές τις ανησυχίες σχετικά με την προσέγγιση που βασίζεται στον κίνδυνο, η οποία, όπως υποστηρίζει, σχεδιάστηκε εν μέρει ως παραχώρηση σε ομίλους τεχνολογικής βιομηχανίας και σε αρχές επιβολής του νόμου. Ο Leufer λέει ότι η AccessNow και άλλοι οργανισμοί ψηφιακών δικαιωμάτων έπρεπε να πιέσουν τα κράτη μέλη της ΕΕ να συμφωνήσουν να συμπεριλάβουν «απαράδεκτες» κατηγορίες κινδύνου, τις οποίες ορισμένοι αρχικά αρνήθηκαν να αναγνωρίσουν. Ο Tod, ο εκτελεστικός διευθυντής του Ινστιτούτου AI Now, συνέχισε λέγοντας ότι ο νόμος AI θα μπορούσε να είχε κάνει περισσότερα για να διευκρινίσει τους κανονισμούς σχετικά με τις εφαρμογές τεχνητής νοημοσύνης στους τομείς επιβολής του νόμου και εθνικής ασφάλειας.


Ένας αβέβαιος δρόμος μπροστά

Το πλαίσιο που συμφωνήθηκε την περασμένη εβδομάδα ήταν το αποκορύφωμα μιας πολυετούς συζήτησης μεταξύ κρατών μελών της ΕΕ, τεχνολογικών εταιρειών και οργανώσεων της κοινωνίας των πολιτών. Τα πρώτα προσχέδια του νόμου περί τεχνητής νοημοσύνης χρονολογούνται από το 2021, μήνες πριν τα εργαλεία τεχνητής νοημοσύνης ChatGPT και

που δημιουργούνται από το OpenAI συναρπάσουν το μυαλό εκατομμυρίων. Ο σκελετός της νομοθεσίας

σύμφωνα με πληροφορίες

χρονολογείται ακόμη πιο πίσω από το 2018.

Πολλά έχουν αλλάξει από τότε. Ακόμη και οι πιο έξυπνοι ειδικοί της τεχνητής νοημοσύνης θα δυσκολεύονταν να φανταστούν ότι θα ήταν μάρτυρες εκατοντάδων κορυφαίων τεχνολόγων και επιχειρηματικών ηγετών να προσθέτουν μανιωδώς τα ονόματά τους σε παθιασμένες επιστολές που παροτρύνουν ένα μορατόριουμ στην τεχνολογία της τεχνητής νοημοσύνης για τη δήθεν προστασία της ανθρωπότητας. Λίγοι θα μπορούσαν παρομοίως να είχαν προβλέψει το τρέχον κύμα αγωγών πνευματικών δικαιωμάτων που κατατέθηκαν εναντίον παραγωγών τεχνητής νοημοσύνης που αμφισβητούν τη νομιμότητα των τεράστιων τεχνικών απόσυρσης δεδομένων ή των

torrent clickbait που δημιουργείται από AI

γεμίζοντας τον ιστό.

Ομοίως, είναι αδύνατο να προβλεφθεί πώς θα μοιάζει το τοπίο της τεχνητής νοημοσύνης το 2025, το οποίο είναι το νωρίτερο που η ΕΕ θα μπορούσε πραγματικά να επιβάλει τους βαρείς νέους κανονισμούς της. Αξιος

σημειώσεις

Οι αξιωματούχοι της ΕΕ θα προτρέψουν τις εταιρείες να συμφωνήσουν με τους κανόνες στο μεταξύ, αλλά σε εθελοντική βάση.

The post Ο ισχυρός νόμος για την τεχνητή νοημοσύνη της ΕΕ είναι εδώ. Είναι όμως πολύ αργά; εμφανίστηκε πρώτα στο Popular Science.


Τα άρθρα ενδέχεται να περιέχουν συνδέσμους συνεργατών που μας επιτρέπουν να μοιραζόμαστε τα έσοδα από τυχόν αγορές που πραγματοποιούνται.


VIA:

popsci.com