Ο νόμος για την τεχνητή νοημοσύνη της ΕΕ πέρασε — τώρα έρχεται η αναμονή



Οι τρεις κλάδοι της Ευρωπαϊκής Ένωσης συμφώνησαν προσωρινά στον ορόσημο κανονισμό της για την τεχνητή νοημοσύνη, ανοίγοντας το δρόμο για το οικονομικό μπλοκ να απαγορεύσει ορισμένες χρήσεις της τεχνολογίας και να απαιτήσει διαφάνεια από τους παρόχους. Ωστόσο, παρά τις προειδοποιήσεις ορισμένων παγκόσμιων ηγετών, οι αλλαγές που θα απαιτήσει από τις εταιρείες τεχνητής νοημοσύνης παραμένουν ασαφείς – και ενδεχομένως πολύ μακρινές.

Ο νόμος AI, που προτάθηκε για πρώτη φορά το 2021, δεν έχει ακόμη πλήρως εγκριθεί. Οι έντονες συζητήσεις συμβιβασμών της τελευταίας στιγμής αμβλύνουν ορισμένες από τις αυστηρότερες ρυθμιστικές απειλές της.

η επιβολή πιθανότατα δεν θα ξεκινήσει για χρόνια. «Σε πολύ βραχυπρόθεσμη βάση, ο συμβιβασμός σχετικά με τον νόμο της ΕΕ για την τεχνητή νοημοσύνη δεν θα έχει πολύ άμεσο αποτέλεσμα σε καθιερωμένους σχεδιαστές τεχνητής νοημοσύνης που εδρεύουν στις ΗΠΑ, επειδή, σύμφωνα με τους όρους του, πιθανότατα δεν θα τεθεί σε ισχύ μέχρι το 2025», λέει ο Paul Barrett. , αναπληρωτής διευθυντής του NYU Stern Center for Business and Human Rights.

Προς το παρόν, λοιπόν, ο Barrett λέει ότι σημαντικοί παίκτες τεχνητής νοημοσύνης όπως το

, η Microsoft, η Google και η

πιθανότατα θα συνεχίσουν να παλεύουν για κυριαρχία, ιδιαίτερα καθώς πλοηγούνται σε ρυθμιστική αβεβαιότητα στις ΗΠΑ.

Ο νόμος για την τεχνητή νοημοσύνη ξεκίνησε πριν από την έκρηξη στα εργαλεία τεχνητής νοημοσύνης γενικής χρήσης (GPAI), όπως το μοντέλο μεγάλης γλώσσας GPT-4 του OpenAI, και η ρύθμισή τους έγινε ένα εξαιρετικά περίπλοκο σημείο κόλλησης στις συζητήσεις της τελευταίας στιγμής. Η πράξη χωρίζει τους κανόνες της σχετικά με το επίπεδο κινδύνου που έχει ένα σύστημα τεχνητής νοημοσύνης για την κοινωνία, ή όπως είπε η ΕΕ στο α

δήλωση

«όσο μεγαλύτερος είναι ο κίνδυνος, τόσο πιο αυστηροί είναι οι κανόνες».

Ωστόσο, ορισμένα κράτη μέλη ανησυχούσαν ότι αυτή η αυστηρότητα θα μπορούσε να κάνει την ΕΕ μια μη ελκυστική αγορά για την τεχνητή νοημοσύνη. Η Γαλλία, η Γερμανία και η Ιταλία άσκησαν πίεση για να μειώσουν τους περιορισμούς στο GPAI κατά τη διάρκεια των διαπραγματεύσεων. Κέρδισαν συμβιβασμούς, συμπεριλαμβανομένου του περιορισμού των συστημάτων «υψηλού κινδύνου», τα οποία στη συνέχεια θα υπόκεινται σε ορισμένους από τους αυστηρότερους κανόνες. Αντί να ταξινομούνται όλα τα GPAI ως υψηλού κινδύνου, θα υπάρχει σύστημα δύο επιπέδων και εξαιρέσεις επιβολής του νόμου για εντελώς απαγορευμένες χρήσεις τεχνητής νοημοσύνης όπως η απομακρυσμένη βιομετρική ταυτοποίηση.

Αυτό ακόμα δεν έχει ικανοποιήσει όλους τους κριτικούς. Ο Γάλλος πρόεδρος Εμανουέλ Μακρόν

επιτέθηκε στους κανόνες

, λέγοντας ότι ο νόμος για την τεχνητή νοημοσύνη δημιουργεί ένα σκληρό ρυθμιστικό περιβάλλον που εμποδίζει την καινοτομία. Ο Μπάρετ είπε ότι ορισμένες νέες ευρωπαϊκές εταιρείες τεχνητής νοημοσύνης θα μπορούσαν να θεωρήσουν δύσκολο να αντλήσουν κεφάλαια με τους ισχύοντες κανόνες, γεγονός που δίνει πλεονέκτημα στις αμερικανικές εταιρείες. Εταιρείες εκτός Ευρώπης μπορεί ακόμη και να επιλέξουν να αποφύγουν τη δημιουργία καταστημάτων στην περιοχή ή να μπλοκάρουν την πρόσβαση σε πλατφόρμες, ώστε να μην τους επιβληθούν πρόστιμα για παραβίαση των κανόνων — ένας πιθανός κίνδυνος που αντιμετωπίζει η Ευρώπη και στον κλάδο της τεχνολογίας που δεν βασίζεται στην τεχνητή νοημοσύνη, σύμφωνα με κανονισμούς όπως ο νόμος για τις ψηφιακές αγορές και ο νόμος για τις ψηφιακές υπηρεσίες.

Αλλά οι κανόνες παρακάμπτουν επίσης μερικά από τα πιο αμφιλεγόμενα ζητήματα σχετικά με τη γενετική τεχνητή νοημοσύνη

Τα μοντέλα τεχνητής νοημοσύνης που έχουν εκπαιδευτεί σε δημόσια διαθέσιμα —αλλά ευαίσθητα και δυνητικά προστατευμένα πνευματικά δεδομένα— δεδομένα έχουν γίνει μεγάλο

σημείο διαμάχης για τους οργανισμούς

, για παράδειγμα. Οι προσωρινοί κανόνες, ωστόσο, δεν δημιουργούν νέους νόμους σχετικά με τη συλλογή δεδομένων. Ενώ η ΕΕ πρωτοστάτησε στους νόμους περί προστασίας δεδομένων μέσω του GDPR, οι κανόνες της για την τεχνητή νοημοσύνη δεν απαγορεύουν στις εταιρείες να συλλέγουν πληροφορίες, πέρα ​​από την απαίτηση να ακολουθούν τις οδηγίες GDPR.

«Σύμφωνα με τους κανόνες, οι εταιρείες μπορεί να πρέπει να παρέχουν μια περίληψη διαφάνειας ή διατροφικές ετικέτες δεδομένων», λέει η Susan Ariel Aaronson, διευθύντρια του Digital Trade and Data Governance Hub και ερευνήτρια καθηγήτρια διεθνών υποθέσεων στο Πανεπιστήμιο George Washington. «Αλλά δεν πρόκειται πραγματικά να αλλάξει τη συμπεριφορά των εταιρειών γύρω από τα δεδομένα».

Ο Aaronson επισημαίνει ότι ο νόμος περί τεχνητής νοημοσύνης δεν έχει ακόμη διευκρινίσει πώς οι εταιρείες θα πρέπει να χειρίζονται υλικό που προστατεύεται από πνευματικά δικαιώματα που αποτελεί μέρος των δεδομένων εκπαίδευσης μοντέλων, πέρα ​​από τη δήλωση ότι οι προγραμματιστές πρέπει να ακολουθούν τους υπάρχοντες νόμους περί πνευματικών δικαιωμάτων (που αφήνουν πολλές γκρίζες ζώνες γύρω από την τεχνητή νοημοσύνη). Επομένως, δεν προσφέρει κανένα κίνητρο στους προγραμματιστές μοντέλων AI να αποφύγουν τη χρήση δεδομένων που προστατεύονται από πνευματικά δικαιώματα.

Ο νόμος για την τεχνητή νοημοσύνη δεν θα εφαρμόσει επίσης τα δυνητικά αυστηρά πρόστιμα σε προγραμματιστές ανοιχτού κώδικα, ερευνητές και μικρότερες εταιρείες που εργάζονται περαιτέρω στην αλυσίδα αξίας – μια απόφαση που επαινείται από προγραμματιστές ανοιχτού κώδικα στον τομέα. Η επικεφαλής νομική διευθύντρια του GitHub, Shelley McKinley, δήλωσε ότι είναι «μια θετική εξέλιξη για την ανοιχτή καινοτομία και τους προγραμματιστές που εργάζονται για να βοηθήσουν στην επίλυση ορισμένων από τα πιο πιεστικά προβλήματα της κοινωνίας». (Το GitHub, ένας δημοφιλής κόμβος ανάπτυξης ανοιχτού κώδικα, είναι θυγατρική της Microsoft.)

Οι παρατηρητές πιστεύουν ότι ο πιο συγκεκριμένος αντίκτυπος θα μπορούσε να είναι η πίεση άλλων πολιτικών προσώπων, ιδιαίτερα των Αμερικανών πολιτικών, να κινηθούν πιο γρήγορα. Δεν είναι το πρώτο σημαντικό ρυθμιστικό πλαίσιο για την τεχνητή νοημοσύνη — τον Ιούλιο, η Κίνα ενέκρινε οδηγίες για τις επιχειρήσεις που θέλουν να πουλήσουν υπηρεσίες τεχνητής νοημοσύνης στο κοινό. Ωστόσο, η σχετικά διαφανής και έντονα συζητημένη διαδικασία ανάπτυξης της ΕΕ έχει δώσει στον κλάδο της τεχνητής νοημοσύνης μια αίσθηση του τι να περιμένει. Αν και ο νόμος για την τεχνητή νοημοσύνη μπορεί να αλλάξει ακόμα, ο Aaronson είπε ότι δείχνει τουλάχιστον ότι η ΕΕ άκουσε και ανταποκρίθηκε στις ανησυχίες του κοινού σχετικά με την τεχνολογία.

Ο Lothar Determann, εταίρος απορρήτου δεδομένων και τεχνολογίας πληροφοριών στη δικηγορική εταιρεία Baker McKenzie, λέει ότι το γεγονός ότι βασίζεται στους υπάρχοντες κανόνες δεδομένων θα μπορούσε επίσης να ενθαρρύνει τις κυβερνήσεις να κάνουν απολογισμό των κανονισμών που εφαρμόζουν. Και ο Blake Brannon, επικεφαλής στρατηγικής στην

απορρήτου δεδομένων OneTrust, είπε ότι πιο ώριμες εταιρείες τεχνητής νοημοσύνης θέτουν κατευθυντήριες γραμμές προστασίας της ιδιωτικής ζωής σε συμμόρφωση με νόμους όπως ο GDPR και εν αναμονή αυστηρότερων πολιτικών. Είπε ότι, ανάλογα με την εταιρεία, ο νόμος για την τεχνητή νοημοσύνη είναι «ένα πρόσθετο πότισμα» σε στρατηγικές που ήδη εφαρμόζονται.

Οι ΗΠΑ, αντίθετα, απέτυχαν σε μεγάλο βαθμό να θέσουν σε εφαρμογή τη ρύθμιση της τεχνητής νοημοσύνης – παρά το γεγονός ότι φιλοξενούν σημαντικούς παίκτες όπως η Meta, η Amazon, η

, η Google, η Nvidia και η OpenAI. Η μεγαλύτερη κίνησή του μέχρι στιγμής ήταν ένα εκτελεστικό διάταγμα της κυβέρνησης Μπάιντεν που έδωσε εντολή στις κυβερνητικές υπηρεσίες να αναπτύξουν πρότυπα ασφαλείας και να βασιστούν σε εθελοντικές, μη δεσμευτικές συμφωνίες που έχουν υπογραφεί από μεγάλους παίκτες τεχνητής νοημοσύνης. Τα λίγα νομοσχέδια που εισήχθησαν στη Γερουσία έχουν ως επί το πλείστον περιστρέφονται γύρω από τα deepfakes και το watermarking, και τα κεκλεισμένων των θυρών φόρουμ AI που διοργανώνει ο γερουσιαστής Chuck Schumer (D-NY) έχουν προσφέρει λίγη σαφήνεια σχετικά με την κατεύθυνση της κυβέρνησης στη διακυβέρνηση της τεχνολογίας.

Τώρα, οι υπεύθυνοι χάραξης πολιτικής μπορεί να εξετάσουν την προσέγγιση της ΕΕ και να πάρουν διδάγματα από αυτήν

Αυτό δεν σημαίνει ότι οι ΗΠΑ θα ακολουθήσουν την ίδια προσέγγιση βάσει κινδύνου, αλλά μπορεί να προσπαθήσουν να επεκτείνουν τους κανόνες διαφάνειας δεδομένων ή να επιτρέψουν στα μοντέλα GPAI λίγο περισσότερη επιείκεια.

Η Navrina Singh, ιδρύτρια του Credo AI και μέλος της εθνικής συμβουλευτικής επιτροπής AI, πιστεύει ότι ενώ ο νόμος για την AI είναι μια τεράστια στιγμή για τη διακυβέρνηση της τεχνητής νοημοσύνης, τα πράγματα δεν θα αλλάξουν γρήγορα και υπάρχει ακόμη πολλή δουλειά μπροστά.

«Η εστίαση των ρυθμιστικών αρχών και στις δύο πλευρές του Ατλαντικού θα πρέπει να είναι στην παροχή βοήθειας σε οργανισμούς όλων των μεγεθών στον ασφαλή σχεδιασμό, ανάπτυξη και ανάπτυξη τεχνητής νοημοσύνης που είναι ταυτόχρονα διαφανείς και υπεύθυνοι», λέει ο Singh.

Το χείλος

σε δήλωση. Προσθέτει ότι εξακολουθεί να υπάρχει έλλειψη προτύπων και διαδικασιών συγκριτικής αξιολόγησης, ιδιαίτερα όσον αφορά τη διαφάνεια.

Αν και ο νόμος περί τεχνητής νοημοσύνης δεν έχει οριστικοποιηθεί, η μεγάλη πλειοψηφία των χωρών της ΕΕ αναγνώρισαν ότι αυτή είναι η κατεύθυνση που θέλουν να ακολουθήσουν. Ο νόμος δεν ρυθμίζει αναδρομικά τα υπάρχοντα μοντέλα ή εφαρμογές, αλλά οι μελλοντικές εκδόσεις του GPT του OpenAI, του Meta’s Llama ή του Gemini της Google θα πρέπει να λαμβάνουν υπόψη τις απαιτήσεις διαφάνειας που ορίζει η ΕΕ. Μπορεί να μην επιφέρει δραματικές αλλαγές από τη μια μέρα στην άλλη — αλλά καταδεικνύει τη θέση της ΕΕ σχετικά με την τεχνητή νοημοσύνη.


VIA:

theverge.com


Leave A Reply



Cancel Reply

Your email address will not be published.