Η ΕΕ λέει ότι οι εισερχόμενοι κανόνες για AI γενικού σκοπού μπορούν να εξελιχθούν με την πάροδο του χρόνου
Η πολιτική συμφωνία που συνήφθη από τους νομοθέτες της Ευρωπαϊκής Ένωσης αργά την Παρασκευή σχετικά με αυτό που το μπλοκ χρεώνει ως τον πρώτο ολοκληρωμένο νόμο στον κόσμο για τη ρύθμιση της τεχνητής νοημοσύνης περιλαμβάνει εξουσίες στην Επιτροπή να προσαρμόσει το πανευρωπαϊκό εγχειρίδιο κανόνων τεχνητής νοημοσύνης ώστε να συμβαδίζει με τις εξελίξεις στον τομέα αιχμής. έχει επιβεβαιώσει.
Η επιλογή του όρου από τους νομοθέτες για τη ρύθμιση των πιο ισχυρών μοντέλων πίσω από την τρέχουσα άνθηση των εργαλείων παραγωγής τεχνητής νοημοσύνης — τα οποία ο νόμος της ΕΕ αναφέρει ως μοντέλα και συστήματα τεχνητής νοημοσύνης «γενικού σκοπού», αντί να χρησιμοποιεί όρους επιλογής του κλάδου, όπως «θεμελιώδη» ή « μοντέλα συνόρων — επιλέχθηκε επίσης με γνώμονα τη μελλοντική προστασία του εισερχόμενου νόμου, σύμφωνα με την Επιτροπή, με τους συννομοθέτες να προτιμούν έναν γενικό όρο για να αποφευχθεί μια ταξινόμηση που θα μπορούσε να συνδεθεί με τη χρήση μιας συγκεκριμένης
τεχνολογία
ς (π.χ. μηχανική
μάθηση
με βάση μετασχηματιστές).
«Στο μέλλον, μπορεί να έχουμε διαφορετικές τεχνικές προσεγγίσεις.
Και
έτσι αναζητούσαμε έναν πιο γενικό όρο», πρότεινε σήμερα αξιωματούχος της Επιτροπής. «Τα μοντέλα θεμελίωσης, φυσικά, αποτελούν μέρος των μοντέλων τεχνητής νοημοσύνης γενικού σκοπού. Αυτά είναι μοντέλα που μπορούν να χρησιμοποιηθούν για μια πολύ μεγάλη ποικιλία εργασιών, μπορούν επίσης να ενσωματωθούν σε συστήματα. Για να σας δώσω ένα συγκεκριμένο παράδειγμα, το μοντέλο τεχνητής νοημοσύνης γενικού σκοπού θα είναι το GPT-4 και το σύστημα τεχνητής νοημοσύνης γενικού σκοπού θα είναι το ChatGPT — όπου το GPT-4 είναι ενσωματωμένο στο ChatGPT».
Όπως αναφέραμε νωρίτερα, η συμφωνία που συμφωνήθηκε από τους συννομοθέτες του μπλοκ περιλαμβάνει μια βαθμίδα χαμηλού κινδύνου και μια βαθμίδα υψηλού κινδύνου για τη ρύθμιση των λεγόμενων AI γενικής χρήσης (GPAI) — όπως μοντέλα πίσω από την έξαρση του ιού σε εργαλεία παραγωγής τεχνητής νοημοσύνης όπως το ChatGPT του OpenAI . Το έναυσμα για την εφαρμογή κανόνων υψηλού κινδύνου στις τεχνολογίες παραγωγής τεχνητής νοημοσύνης καθορίζεται από ένα αρχικό όριο που ορίζεται στη νομοθεσία.
Επίσης, όπως αναφέραμε την Πέμπτη, το συμφωνημένο προσχέδιο του νόμου για την τεχνητή νοημοσύνη της ΕΕ αναφέρεται στην ποσότητα υπολογισμού που χρησιμοποιείται για την εκπαίδευση των μοντέλων, γνωστή και ως λειτουργίες κινητής υποδιαστολής (ή FLOP) — θέτοντας τον πήχη ώστε ένα GPAI να θεωρείται ότι έχει «δυνατότητες υψηλού αντίκτυπου». στα 10^25 FLOP.
Ωστόσο, κατά τη διάρκεια μιας τεχνικής ενημέρωσης με δημοσιογράφους σήμερα για την ανασκόπηση της πολιτικής συμφωνίας, η Επιτροπή επιβεβαίωσε ότι πρόκειται απλώς για ένα «αρχικό όριο», επιβεβαιώνοντας ότι θα έχει εξουσίες να ενημερώνει το όριο με την πάροδο του χρόνου μέσω εκτελεστικών/μεταβιβαστικών πράξεων (π.χ. παράγωγο δίκαιο). Ανέφερε επίσης ότι η ιδέα είναι το όριο των FLOPs να συνδυαστεί, με την πάροδο του χρόνου, με «άλλα σημεία αναφοράς» που θα αναπτυχθούν από ένα νέο εποπτικό όργανο εμπειρογνωμόνων που θα συσταθεί εντός της Επιτροπής, που ονομάζεται Γραφείο AI.
Γιατί επιλέχθηκαν 25 FLOP ως το όριο υψηλού κινδύνου για τα GPAI; Η Επιτροπή προτείνει ότι ο αριθμός επιλέχθηκε με την πρόθεση να συλλάβει τα τρέχοντα μοντέλα συνόρων της γενιάς. Ωστόσο, ισχυρίστηκε ότι οι νομοθέτες δεν συζήτησαν ούτε καν εξέτασαν αν θα ίσχυε για οποιαδήποτε μοντέλα που παίζουν αυτήν τη στιγμή, όπως το GPT-4 του OpenAI ή το Gemini της Google, κατά τη διάρκεια των τριμερών μαραθώνιων διαλόγων για να συμφωνήσουν το τελικό σχήμα του εγχειριδίου κανόνων.
Αξιωματούχος της Επιτροπής πρόσθεσε ότι, σε κάθε περίπτωση, θα εναπόκειται στους κατασκευαστές GPAI να αξιολογήσουν μόνοι τους εάν τα μοντέλα τους πληρούν το όριο FLOP και, επομένως, εάν εμπίπτουν στους κανόνες για GPAI «με συστημικό κίνδυνο» ή όχι.
«Δεν υπάρχουν επίσημες πηγές που να λένε ότι τα μοντέλα ChatGPT ή Gemini ή κινέζικα είναι σε αυτό το επίπεδο FLOP», δήλωσε ο αξιωματούχος κατά τη διάρκεια της ενημέρωσης τύπου. «Με βάση τις πληροφορίες που έχουμε και με αυτό το 10^25 που επιλέξαμε, επιλέξαμε έναν αριθμό που θα μπορούσε πραγματικά να αποτυπώσει, λίγο, τα μοντέλα συνόρων που έχουμε. Είτε πρόκειται για καταγραφή του GPT-4 ή του Gemini ή άλλων, δεν είμαστε εδώ τώρα για να ισχυριστούμε – γιατί επίσης, στο πλαίσιο μας, είναι οι εταιρείες που θα πρέπει να έρθουν και να αξιολογήσουν μόνες τους την ποσότητα των FLOP ή την υπολογιστική ικανότητα που έχουν χρησιμοποιήσει . Αλλά, φυσικά, αν διαβάσετε την επιστημονική βιβλιογραφία, πολλοί θα υποδείξουν ότι αυτοί οι αριθμοί είναι τα πιο προηγμένα μοντέλα αυτή τη στιγμή. Θα δούμε τι θα αξιολογήσουν οι εταιρείες γιατί είναι οι καλύτερες για να κάνουν αυτήν την αξιολόγηση».
«Οι κανόνες δεν έχουν γραφτεί λαμβάνοντας υπόψη ορισμένες εταιρείες», πρόσθεσαν. «Έχουν γραφτεί πραγματικά με την ιδέα του καθορισμού του ορίου — το οποίο, παρεμπιπτόντως, μπορεί να αλλάξει επειδή έχουμε τη δυνατότητα να εξουσιοδοτηθούμε να αλλάξουμε αυτό το όριο με βάση την τεχνολογική εξέλιξη. Θα μπορούσε να ανέβει, θα μπορούσε να κατέβει και θα μπορούσαμε επίσης να αναπτύξουμε άλλα σημεία αναφοράς που στο μέλλον θα είναι τα καταλληλότερα για τη συγκριτική αξιολόγηση των διαφορετικών στιγμών».
Τα GPAI που εμπίπτουν στη βαθμίδα υψηλού κινδύνου του νόμου περί τεχνητής νοημοσύνης θα αντιμετωπίσουν εκ των προτέρων ρυθμιστικές απαιτήσεις για την αξιολόγηση και τον μετριασμό των συστημικών κινδύνων — που σημαίνει ότι πρέπει να δοκιμάσουν προληπτικά τα αποτελέσματα του μοντέλου για να συρρικνώσουν τους κινδύνους πραγματικών (ή «εύλογα προβλέψιμων») αρνητικών επιπτώσεων στη δημόσια υγεία. ασφάλεια, δημόσια ασφάλεια, θεμελιώδη δικαιώματα ή για την κοινωνία στο σύνολό της.
Ενώ τα GPAI «χαμηλού επιπέδου» θα αντιμετωπίζουν μόνο ελαφρύτερες απαιτήσεις διαφάνειας, συμπεριλαμβανομένων των υποχρεώσεων εφαρμογής υδατοσήμανσης σε παραγωγικές εξόδους τεχνητής νοημοσύνης.
Η απαίτηση υδατογράφησης για τα GPAI εμπίπτει σε ένα άρθρο που βρισκόταν στην αρχική έκδοση της Επιτροπής του πλαισίου βάσει κινδύνου, που παρουσιάστηκε τον Απρίλιο του 2021, το οποίο εστίαζε στις απαιτήσεις διαφάνειας για τεχνολογίες όπως τα chatbots τεχνητής νοημοσύνης και τα deepfakes — αλλά τώρα ισχύει επίσης γενικά για συστήματα τεχνητής νοημοσύνης γενικού σκοπού.
«Υπάρχει υποχρέωση να προσπαθήσουμε να υδατογραφήσουμε [generative AI-produced] κείμενο βάσει της τελευταίας τεχνολογίας αιχμής που είναι διαθέσιμη», είπε ο αξιωματούχος της Κομισιόν, διευκρινίζοντας λεπτομέρειες για τις συμφωνημένες υποχρεώσεις υδατογράφησης. «Αυτή τη στιγμή, οι τεχνολογίες είναι πολύ καλύτερες στο να υδατογραφούν βίντεο και ήχο από το κείμενο. Αλλά αυτό που ζητάμε είναι το γεγονός ότι αυτή η υδατογράφηση πραγματοποιείται με βάση την τεχνολογία αιχμής — και τότε αναμένουμε, φυσικά, ότι με την πάροδο του χρόνου η τεχνολογία θα ωριμάσει και θα είναι όπως [good] όσο το δυνατόν.”
Οι κατασκευαστές μοντέλων GPAI πρέπει επίσης να δεσμευτούν ότι θα σέβονται τους κανόνες πνευματικής ιδιοκτησίας της ΕΕ, συμπεριλαμβανομένης της συμμόρφωσης με μια υπάρχουσα αναγνώσιμη από μηχανή εξαίρεση από κείμενο και εξόρυξη δεδομένων που περιέχεται στην Οδηγία για τα πνευματικά δικαιώματα της ΕΕ — και μια χάραξη των απαιτήσεων διαφάνειας του νόμου για GPAI ανοιχτού κώδικα
δεν
να επεκταθεί στην απαλλαγή από τις υποχρεώσεις πνευματικής ιδιοκτησίας, με την Επιτροπή να επιβεβαιώνει ότι η Οδηγία για τα πνευματικά δικαιώματα θα εξακολουθεί να ισχύει για GPAI ανοιχτού κώδικα.
Όσον αφορά το Γραφείο τεχνητής νοημοσύνης, το οποίο θα διαδραματίσει βασικό ρόλο στον καθορισμό ορίων ταξινόμησης κινδύνου για τα GPAI, η Επιτροπή επιβεβαίωσε ότι δεν έχει καθοριστεί ακόμη προϋπολογισμός ή αριθμός προσωπικού για το όργανο εμπειρογνωμόνων. (Αν και, τις μικρές ώρες του Σαββάτου, ο Επίτροπος Εσωτερικής Αγοράς του μπλοκ, Τιερί Μπρετόν, πρότεινε ότι η ΕΕ είναι έτοιμη να υποδεχθεί «πολλούς» νέους συναδέλφους καθώς εργαλοποιεί αυτό το όργανο εποπτείας της τεχνητής νοημοσύνης γενικού σκοπού.)
Ερωτηθείς σχετικά με τους πόρους για το Γραφείο AI, ένας αξιωματούχος της Επιτροπής είπε ότι θα αποφασιστεί στο μέλλον από την εκτελεστική εξουσία της ΕΕ που θα λάβει «μια κατάλληλη και επίσημη απόφαση». «Η ιδέα είναι ότι μπορούμε να δημιουργήσουμε μια ειδική γραμμή προϋπολογισμού για το Γραφείο και ότι θα μπορούμε επίσης να προσλαμβάνουμε εθνικούς εμπειρογνώμονες από τα κράτη μέλη, εάν το επιθυμούμε, πέρα από συμβασιούχους υπαλλήλους και πάνω από μόνιμο προσωπικό. Και κάποιο από αυτό το προσωπικό θα αναπτυχθεί επίσης στην Ευρωπαϊκή Επιτροπή», πρόσθεσαν.
Το Γραφείο AI θα συνεργαστεί με μια νέα επιστημονική συμβουλευτική ομάδα που θα δημιουργήσει επίσης ο νόμος για να βοηθήσει τον οργανισμό να κατανοήσει καλύτερα τις δυνατότητες προηγμένων μοντέλων τεχνητής νοημοσύνης με σκοπό τη ρύθμιση του συστημικού κινδύνου. «Έχουμε εντοπίσει έναν σημαντικό ρόλο για τη σύσταση μιας επιστημονικής ομάδας όπου η επιστημονική ομάδα μπορεί να βοηθήσει αποτελεσματικά το Γραφείο Τεχνητής Νοημοσύνης να κατανοήσει εάν υπάρχουν νέοι κίνδυνοι που δεν έχουν ακόμη εντοπιστεί», σημείωσε ο αξιωματούχος. Και, για παράδειγμα, επισημάνετε επίσης ορισμένες ειδοποιήσεις σχετικά με τα μοντέλα που δεν καλύπτονται από το όριο FLOP που για ορισμένους λόγους θα μπορούσαν στην πραγματικότητα να δημιουργήσουν σημαντικούς κινδύνους που θα πρέπει να εξετάσουν οι κυβερνήσεις».
Ενώ η εκτελεστική εξουσία της ΕΕ φαίνεται πρόθυμη να διασφαλίσει ότι οι βασικές λεπτομέρειες του εισερχόμενου νόμου θα δημοσιευτούν, παρά το γεγονός ότι δεν υπάρχει ακόμη τελικό κείμενο — επειδή οι εργασίες για την παγίωση των όσων συμφωνήθηκαν από τους συννομοθέτες κατά τη διάρκεια των μαραθώνιων 38 ωρών συνομιλιών που ολοκληρώθηκαν το βράδυ της Παρασκευής είναι το επόμενο καθήκον που θα αντιμετωπίσει το μπλοκ τις επόμενες εβδομάδες — θα μπορούσαν να υπάρχουν ακόμα κάποιοι διάβολοι που κρύβονται σε αυτή τη λεπτομέρεια. Επομένως, αξίζει να εξεταστεί το κείμενο που θα εμφανιστεί, πιθανότατα τον Ιανουάριο ή τον Φεβρουάριο.
Επιπλέον, ενώ ο πλήρης κανονισμός δεν θα έχει τεθεί σε λειτουργία για μερικά χρόνια, η ΕΕ θα πιέσει ώστε οι GPAI να συμμορφώνονται με τους κώδικες πρακτικής στο μεταξύ — έτσι οι γίγαντες της τεχνητής νοημοσύνης θα βρίσκονται υπό
πίεση
να παραμείνουν όσο πιο κοντά στους σκληρούς κανονισμούς που έρχονται όσο το δυνατόν πιο κάτω, μέσω του Συμφώνου AI του μπλοκ.
Ο ίδιος ο νόμος για την τεχνητή νοημοσύνη της ΕΕ πιθανότατα δεν θα είναι σε πλήρη ισχύ μέχρι κάποια στιγμή το 2026 — δεδομένου ότι το τελικό κείμενο πρέπει, μόλις συνταχθεί (και μεταφραστεί στις γλώσσες των κρατών μελών), να επικυρωθεί με τελικές ψηφοφορίες στο κοινοβούλιο και το Συμβούλιο, μετά την οποία Υπάρχει ένα σύντομο χρονικό διάστημα πριν από τη δημοσίευση του κειμένου του νόμου στην Επίσημη Εφημερίδα της ΕΕ και ένα άλλο πριν τεθεί σε ισχύ.
Οι νομοθέτες της ΕΕ συμφώνησαν επίσης μια σταδιακή προσέγγιση στις απαιτήσεις συμμόρφωσης του νόμου, με 24 μήνες να επιτραπούν μέχρι να εφαρμοστούν οι κανόνες υψηλού κινδύνου για τους GPAI.
Ο κατάλογος των αυστηρά απαγορευμένων περιπτώσεων χρήσης της τεχνητής νοημοσύνης θα εφαρμοστεί νωρίτερα, μόλις έξι μήνες μετά την έναρξη ισχύος του νόμου — κάτι που θα μπορούσε, ενδεχομένως, να σημαίνει
απαγόρευση
ορισμένων χρήσεων «απαράδεκτου κινδύνου» της τεχνητής νοημοσύνης, όπως η κοινωνική βαθμολογία ή το στυλ Clearview AI Η απόξεση selfie για βάσεις δεδομένων αναγνώρισης προσώπου, θα τεθεί σε λειτουργία το δεύτερο εξάμηνο του 2024, με την προϋπόθεση ότι δεν θα εμφανιστεί αντίθεση της τελευταίας στιγμής στον κανονισμό εντός του Συμβουλίου ή του Κοινοβουλίου. (Για την πλήρη λίστα των απαγορευμένων χρήσεων AI, διαβάστε την προηγούμενη ανάρτησή μας.)
VIA:
techcrunch.com
