Οι «τελικές» συνομιλίες της ΕΕ για τον καθορισμό των κανόνων τεχνητής νοημοσύνης θα διεξαχθούν σε δεύτερη μέρα — αλλά η συμφωνία για τα θεμελιώδη μοντέλα είναι στο τραπέζι



Καθώς οι νομοθέτες της Ευρωπαϊκής Ένωσης προχωρούν στο ρολόι

20+ ώρες διαπραγματευτικού χρόνου

Σε μια μαραθώνια προσπάθεια επίτευξης συμφωνίας σχετικά με τον τρόπο ρύθμισης της τεχνητής νοημοσύνης, συμφωνήθηκε μια προκαταρκτική συμφωνία για τον τρόπο χειρισμού ενός κολλώδους στοιχείου – κανόνες για θεμελιώδη μοντέλα / AI γενικής χρήσης (GPAI), σύμφωνα με μια πρόταση που διέρρευσε που εξέτασε το TechCrunch.

Τις τελευταίες εβδομάδες υπήρξε μια συντονισμένη ώθηση, με επικεφαλής τη γαλλική startup τεχνητής νοημοσύνης Mistral, για μια συνολική ρυθμιστική χάραξη για τα θεμελιώδη μοντέλα/GPAI. Ωστόσο, οι νομοθέτες της ΕΕ φαίνεται ότι αντιστάθηκαν στην πλήρη πίεση του γκαζιού για να αφήσουν την αγορά να διορθώσει τα πράγματα, καθώς η πρόταση διατηρεί στοιχεία της κλιμακωτής προσέγγισης για τη ρύθμιση αυτών των προηγμένων AI που πρότεινε το κοινοβούλιο νωρίτερα φέτος.

Τούτου λεχθέντος, υπάρχει μερική απομάκρυνση από ορισμένες υποχρεώσεις για συστήματα GPAI που παρέχονται με άδειες δωρεάν και ανοιχτού κώδικα (πράγμα που ορίζεται ότι σημαίνει ότι

τα βάρη τους, πληροφορίες σχετικά με την αρχιτεκτονική του

υ και τη χρήση του μοντέλου που διατίθενται στο κοινό)

— με ορισμένες εξαιρέσεις, συμπεριλαμβανομένων των μοντέλων «υψηλού κινδύνου».


Reuters

έχει επίσης αναφέρει για μερικές εξαιρέσεις για προηγμένες AI ανοιχτού κώδικα.

Σύμφωνα με την πηγή μας, η εξαίρεση ανοιχτού κώδικα περιορίζεται περαιτέρω από την εμπορική ανάπτυξη — επομένως εάν/όταν ένα τέτοιο μοντέλο ανοιχτού κώδικα διατίθεται στην αγορά ή τεθεί σε λειτουργία με άλλο τρόπο, το carve out δεν θα ισχύει πλέον. «Έτσι, υπάρχει πιθανότητα ο νόμος να ισχύει για τη Mistral, ανάλογα με τον τρόπο ερμηνείας του «διαθέσιμο στην αγορά» ή «θέση σε λειτουργία»», πρότεινε η πηγή μας.

Η προκαταρκτική συμφωνία που είδαμε διατηρεί την ταξινόμηση των GPAI με τον λεγόμενο «συστημικό κίνδυνο» — με κριτήρια για ένα μοντέλο που λαμβάνει αυτόν τον χαρακτηρισμό ότι έχει «δυνατότητες υψηλού αντίκτυπου», συμπεριλαμβανομένου του μετρητή του σωρευτικού υπολογισμού που χρησιμοποιείται για την εκπαίδευσή του σε πράξεις κινητής υποδιαστολής (FLOPs) είναι μεγαλύτερο από 10^25.

Σε αυτό το επίπεδο

πολύ λίγα τρέχοντα μοντέλα φαίνεται να πληρούν το όριο συστημικού κινδύνου

— υποδηλώνοντας ότι λίγοι GPAI αιχμής θα έπρεπε να ανταποκριθούν στις εκ των προτέρων υποχρεώσεις για την προληπτική αξιολόγηση και τον μετριασμό των συστημικών κινδύνων. Έτσι, το λόμπι του Mistral φαίνεται να έχει αμβλύνει το ρυθμιστικό πλήγμα.

Σύμφωνα με την προκαταρκτική συμφωνία, άλλες υποχρεώσεις για τους παρόχους GPAI με συστημικό κίνδυνο περιλαμβάνουν την ανάληψη αξιολόγησης με τυποποιημένα πρωτόκολλα και εργαλεία τελευταίας τεχνολογίας. τεκμηρίωση και αναφορά σοβαρών περιστατικών «χωρίς αδικαιολόγητη καθυστέρηση»· διεξαγωγή και τεκμηρίωση δοκιμών αντιπαλότητας· εξασφάλιση επαρκούς επιπέδου ασφάλειας στον

· και αναφορά της πραγματικής ή εκτιμώμενης κατανάλωσης ενέργειας του μοντέλου.

Κατά τα λοιπά, υπάρχουν ορισμένες γενικές υποχρεώσεις για τους παρόχους GPAI, συμπεριλαμβανομένης της δοκιμής και της αξιολόγησης του μοντέλου και της κατάρτισης και διατήρησης τεχνικής τεκμηρίωσης, η οποία θα πρέπει να παρέχεται στις ρυθμιστικές αρχές και τους εποπτικούς φορείς κατόπιν αιτήματος.

Θα πρέπει επίσης να παρέχουν στους μεταγενέστερους προγραμματιστές των μοντέλων τους (γνωστοί και ως κατασκευαστές εφαρμογών AI) μια επισκόπηση των δυνατοτήτων και των περιορισμών του μοντέλου, ώστε να υποστηρίξουν την ικανότητά τους να συμμορφώνονται με τον νόμο AI.

Το κείμενο της πρότασης απαιτεί επίσης από τους θεμελιώδεις δημιουργούς μοντέλων να εφαρμόσουν μια πολιτική σεβασμού της νομοθεσίας της ΕΕ για τα πνευματικά δικαιώματα, μεταξύ άλλων όσον αφορά τους περιορισμούς που έχουν θέσει οι κάτοχοι πνευματικών δικαιωμάτων στην εξόρυξη κειμένου και δεδομένων. Επιπλέον, παρέχουν μια «αρκετά λεπτομερή» περίληψη των δεδομένων

ς που χρησιμοποιούνται για τη δημιουργία του μοντέλου και τη δημοσιοποίησή του — με ένα πρότυπο για την αποκάλυψη που παρέχεται από το Γραφείο AI, ένα όργανο διακυβέρνησης AI που προτείνει να συσταθεί ο κανονισμός.

Κατανοούμε ότι αυτή η σύνοψη αποκάλυψης πνευματικών δικαιωμάτων θα εξακολουθήσει να ισχύει για μοντέλα ανοιχτού κώδικα — που αποτελεί άλλη μια από τις εξαιρέσεις για την εξαγωγή τους από τους κανόνες.


Το κείμενο που είδαμε περιέχει μια αναφορά σε κώδικες πρακτικής, στους οποίους η πρόταση λέει ότι οι GPAI — και οι GPAI με συστημικό κίνδυνο — μπορεί να βασίζονται για να αποδείξουν τη συμμόρφωση, έως ότου δημοσιευτεί ένα «εναρμονισμένο πρότυπο».

Οραματίζεται το Γραφείο AI να συμμετέχει στην κατάρτιση τέτοιων Κωδίκων. Ενώ η Επιτροπή προβλέπεται να εκδώσει αιτήματα τυποποίησης ξεκινώντας από έξι μήνες μετά την έναρξη ισχύος του κανονισμού για τα GPAI — όπως το αίτημα για παραδοτέα σχετικά με την υποβολή εκθέσεων και τεκμηρίωση σχετικά με τρόπους βελτίωσης της χρήσης ενέργειας και πόρων των συστημάτων τεχνητής νοημοσύνης — με τακτικές αναφορές για την πρόοδό του Η ανάπτυξη αυτών των τυποποιημένων στοιχείων περιλαμβάνει επίσης (δύο χρόνια μετά την ημερομηνία εφαρμογής και στη συνέχεια κάθε τέσσερα χρόνια).

Ο σημερινός τριμερής διάλογος για τον νόμο για την τεχνητή νοημοσύνη ξεκίνησε στην πραγματικότητα χθες το απόγευμα, αλλά η Ευρωπαϊκή Επιτροπή φαινόταν αποφασισμένη ότι θα είναι η τελική συνάντηση μεταξύ του Ευρωπαϊκού Συμβουλίου, του Κοινοβουλίου και των υπαλλήλων του σε αυτόν τον επίμαχο φάκελο. (Εάν όχι, όπως έχουμε αναφέρει προηγουμένως, υπάρχει κίνδυνος ο κανονισμός να τεθεί ξανά στο ράφι καθώς οι εκλογές στην ΕΕ και οι νέοι διορισμοί στην Επιτροπή πλησιάζουν το επόμενο έτος.)

Τη στιγμή της σύνταξης των γραμμών, οι συνομιλίες για την επίλυση πολλών άλλων αμφισβητούμενων στοιχείων του φακέλου παραμένουν σε εξέλιξη και υπάρχουν ακόμη πολλά εξαιρετικά ευαίσθητα ζητήματα στο τραπέζι (όπως η βιομετρική επιτήρηση για σκοπούς επιβολής του νόμου). Επομένως, παραμένει ασαφές κατά πόσον το αρχείο περνά από τη γραμμή.

Χωρίς συμφωνία σε όλα τα στοιχεία δεν μπορεί να υπάρξει συμφωνία για τη διασφάλιση του νόμου, επομένως η μοίρα του νόμου για την τεχνητή νοημοσύνη παραμένει στον αέρα. Αλλά για όσους θέλουν να καταλάβουν πού κατέληξαν οι συννομοθέτες όσον αφορά τις ευθύνες για προηγμένα μοντέλα τεχνητής νοημοσύνης, όπως το μοντέλο μεγάλης γλώσσας που στηρίζει το ιογενές chatbot AI ChatGPT, η προκαταρκτική συμφωνία προσφέρει κάποιες οδηγίες για το πού θέλουν να κατευθυνθούν οι νομοθέτες.

Τα τελευταία λεπτά, ο Επίτροπος Εσωτερικής

ς της ΕΕ,

, με tweet επιβεβαίωσε ότι οι συνομιλίες έχουν οριστικά διαλυθεί — αλλά μόνο μέχρι αύριο. Ο επικός τριμερής διάλογος έχει προγραμματιστεί να συνεχιστεί στις 9 π.μ. ώρα Βρυξελλών, επομένως η Επιτροπή εξακολουθεί να φαίνεται έτοιμη να αποκτήσει το εγχειρίδιο κανόνων τεχνητής νοημοσύνης βάσει κινδύνου που πρότεινε μέχρι τον Απρίλιο του 2021 στη γραμμή αυτή την εβδομάδα. Φυσικά αυτό θα εξαρτηθεί από την εξεύρεση συμβιβασμών που θα είναι αποδεκτοί από τους άλλους συννομοθέτες, το Συμβούλιο και το Κοινοβούλιο. Και με τόσο υψηλά πονταρίσματα και ένα τόσο ευαίσθητο αρχείο, η επιτυχία δεν είναι καθόλου σίγουρη.


VIA:

techcrunch.com


Leave A Reply



Cancel Reply

Your email address will not be published.