Η OpenAI άσκησε πιέσεις στην ΕΕ για να αποφύγει αυστηρότερους κανονισμούς για τα μοντέλα τεχνητής νοημοσύνης της

Το

ασκεί πιέσεις στην Ευρωπαϊκή Ένωση για να μειώσει την εισερχόμενη νομοθεσία για την τεχνητή νοημοσύνη. Σύμφωνα με έγγραφα της Ευρωπαϊκής Επιτροπής

που λαμβάνεται με

χρόνος


, ο δημιουργός του

ζήτησε από τους νομοθέτες να προβούν σε πολλές τροποποιήσεις σε μια προσχέδια έκδοσης του νόμου της ΕΕ για την τεχνητή νοημοσύνη —έναν επερχόμενο νόμο που έχει σχεδιαστεί για να ρυθμίζει καλύτερα τη χρήση της τεχνητής νοημοσύνης— προτού εγκριθεί από το Ευρωπαϊκό Κοινοβούλιο στις 14 Ιουνίου. Ορισμένες αλλαγές που προτάθηκαν από το OpenAI ενσωματώθηκαν τελικά στη νομοθεσία.

Πριν από την έγκρισή του, οι νομοθέτες συζήτησαν τους διευρυνόμενους όρους εντός του νόμου περί τεχνητής νοημοσύνης που έπρεπε να ορίσουν

όλα

συστήματα τεχνητής νοημοσύνης γενικής χρήσης (GPAI) όπως το ChatGPT του OpenAI και το DALL-E ως «υψηλού κινδύνου»

κατηγοριοποιήσεις κινδύνου της πράξης

. Κάτι τέτοιο θα τους συνεπαγόταν τις πιο αυστηρές υποχρεώσεις ασφάλειας και διαφάνειας. Σύμφωνα με

χρόνος

, το OpenAI πολέμησε επανειλημμένα ενάντια στα συστήματα τεχνητής νοημοσύνης που δημιουργούνται από την εταιρεία που εμπίπτουν σε αυτόν τον χαρακτηρισμό το 2022, υποστηρίζοντας ότι μόνο οι εταιρείες που εφαρμόζουν ρητά την τεχνητή νοημοσύνη σε περιπτώσεις χρήσης υψηλού κινδύνου θα πρέπει να υποχρεούνται να συμμορφώνονται με τους κανονισμούς. Αυτό το επιχείρημα προωθήθηκε επίσης από

Google

και

Microsoft

οι οποίες έχουν ασκήσει ομοίως πιέσεις στην ΕΕ για να μειώσει τον αντίκτυπο του νόμου περί τεχνητής νοημοσύνης στις εταιρείες που κατασκευάζουν GPAI.

«Το GPT-3 δεν είναι σύστημα υψηλού κινδύνου, αλλά διαθέτει δυνατότητες που μπορούν ενδεχομένως να χρησιμοποιηθούν σε περιπτώσεις χρήσης υψηλού κινδύνου»

“Το OpenAl αναπτύσσει κυρίως συστήματα Al γενικής χρήσης – για παράδειγμα, το μοντέλο γλώσσας GPT-3 μπορεί να χρησιμοποιηθεί για μια μεγάλη ποικιλία περιπτώσεων χρήσης που περιλαμβάνουν γλώσσα, όπως περίληψη, ταξινόμηση, ερωτήσεις και απαντήσεις και μετάφραση”, δήλωσε η OpenAI σε μια

αδημοσίευτη λευκή βίβλος

απεστάλη σε αξιωματούχους της Ευρωπαϊκής Επιτροπής και του Συμβουλίου τον Σεπτέμβριο του 2022. «Από μόνο του, το GPT-3 δεν είναι σύστημα υψηλού κινδύνου, αλλά διαθέτει δυνατότητες που μπορούν ενδεχομένως να χρησιμοποιηθούν σε περιπτώσεις χρήσης υψηλού κινδύνου».

Τρεις εκπρόσωποι του OpenAI συναντήθηκαν με αξιωματούχους της Ευρωπαϊκής Επιτροπής τον Ιούνιο του 2022 για να διευκρινίσουν τις κατηγοριοποιήσεις κινδύνου που προτείνονται στο πλαίσιο του νόμου για την τεχνητή νοημοσύνη. «Ανησυχούσαν ότι τα συστήματα τεχνητής νοημοσύνης γενικού σκοπού θα περιλαμβάνονταν ως συστήματα υψηλού κινδύνου και ανησυχούσαν ότι περισσότερα συστήματα, από προεπιλογή, θα κατηγοριοποιούνταν ως υψηλού κινδύνου», ανέφερε ένα επίσημο αρχείο της συνάντησης που ελήφθη από

χρόνος

. Ενημέρωσε επίσης ανώνυμη πηγή της Ευρωπαϊκής Επιτροπής

χρόνος

ότι, σε εκείνη τη συνάντηση, η OpenAI εξέφρασε την ανησυχία της ότι αυτή η αντιληπτή υπερρρύθμιση θα μπορούσε να επηρεάσει την καινοτομία της τεχνητής νοημοσύνης, υποστηρίζοντας ότι γνώριζε τους κινδύνους σχετικά με την τεχνητή νοημοσύνη και έκανε ό,τι μπορούσε για να τους μετριάσει. Σύμφωνα με πληροφορίες, το OpenAI δεν πρότεινε κανονισμούς που πιστεύει ότι θα έπρεπε να ισχύουν.

«Κατόπιν αιτήματος των υπευθύνων χάραξης πολιτικής στην ΕΕ, τον Σεπτέμβριο του 2022 παρείχαμε μια επισκόπηση της προσέγγισής μας για την ασφαλή ανάπτυξη συστημάτων όπως το GPT-3 και σχολιάσαμε το τότε προσχέδιο της [AI Act] με βάση αυτή την εμπειρία», δήλωσε εκπρόσωπος του OpenAI σε δήλωση προς

χρόνος

. «Από τότε, το [AI Act] έχει εξελιχθεί ουσιαστικά και έχουμε μιλήσει δημόσια για τις προοδευτικές δυνατότητες και την υιοθέτηση της τεχνολογίας. Συνεχίζουμε να συνεργαζόμαστε με τους υπεύθυνους χάραξης πολιτικής και υποστηρίζουμε τον στόχο της ΕΕ να διασφαλίσει ότι τα εργαλεία τεχνητής νοημοσύνης κατασκευάζονται, αναπτύσσονται και χρησιμοποιούνται με ασφάλεια τώρα και στο μέλλον».

Το OpenAI δεν έχει αποκαλύψει προηγουμένως τις προσπάθειές του για λόμπι στην ΕΕ και φαίνεται να είναι σε μεγάλο βαθμό επιτυχείς — τα GPAI δεν ταξινομούνται αυτόματα ως υψηλού κινδύνου στο τελικό προσχέδιο του νόμου για την τεχνητή νοημοσύνη της ΕΕ που εγκρίθηκε στις 14 Ιουνίου. Ωστόσο, επιβάλλει μεγαλύτερες απαιτήσεις διαφάνειας στα «θεμελιακά μοντέλα» — ισχυρά συστήματα τεχνητής νοημοσύνης όπως το ChatGPT που μπορούν να χρησιμοποιηθούν για διαφορετικές εργασίες — που θα απαιτούν από τις εταιρείες να πραγματοποιούν αξιολογήσεις κινδύνου και να αποκαλύπτουν εάν έχει χρησιμοποιηθεί υλικό που προστατεύεται από πνευματικά δικαιώματα για την εκπαίδευση των μοντέλων τους AI .

Οι αλλαγές που προτάθηκαν από το OpenAI, συμπεριλαμβανομένης της μη επιβολής αυστηρότερων κανονισμών σε όλα τα GPAI, ενσωματώθηκαν στον εγκεκριμένο νόμο AI της ΕΕ

Ενημέρωσε εκπρόσωπος του OpenAI

χρόνος

ότι το OpenAI υποστήριξε τη συμπερίληψη των «μοντέλων θεμελίωσης» ως ξεχωριστής κατηγορίας στον νόμο AI, παρά τη μυστικότητα του OpenAI σχετικά με το πού προμηθεύει τα δεδομένα για την εκπαίδευση των μοντέλων τεχνητής νοημοσύνης του. Πιστεύεται ευρέως ότι αυτά τα συστήματα εκπαιδεύονται σε ομάδες δεδομένων που έχουν αφαιρεθεί από το Διαδίκτυο, συμπεριλαμβανομένης της πνευματικής ιδιοκτησίας και υλικού που προστατεύεται από πνευματικά δικαιώματα. Η εταιρεία επιμένει ότι παραμένει σιωπηλή σχετικά με τις πηγές δεδομένων για να αποτρέψει την αντιγραφή της δουλειάς της από ανταγωνιστές, αλλά εάν αναγκαστεί να αποκαλύψει τέτοιες πληροφορίες, η OpenAI και άλλες μεγάλες εταιρείες τεχνολογίας θα μπορούσαν να αποτελέσουν αντικείμενο αγωγών πνευματικών δικαιωμάτων.

Η στάση του Διευθύνοντος Συμβούλου της OpenAI Sam Altman σχετικά με τη ρύθμιση της τεχνητής νοημοσύνης ήταν αρκετά ασταθής μέχρι στιγμής. Ο Διευθύνων Σύμβουλος έχει εμφανώς πιέσει για ρύθμιση – έχοντας συζητήσει σχέδια με το Κογκρέσο των ΗΠΑ – και τόνισε τους πιθανούς κινδύνους της τεχνητής νοημοσύνης σε μια ανοιχτή επιστολή που υπέγραψε μαζί με άλλους αξιόλογους ηγέτες της τεχνολογίας όπως ο Elon Musk και ο Steve Wozniak νωρίτερα αυτό το έτος. Αλλά η εστίασή του ήταν κυρίως

μελλοντικός

βλάβες αυτών των συστημάτων. Ταυτόχρονα, έχει προειδοποιήσει ότι το OpenAI ενδέχεται να σταματήσει τις δραστηριότητές του στην αγορά της ΕΕ εάν η εταιρεία δεν είναι σε θέση να συμμορφωθεί με τους εισερχόμενους κανονισμούς τεχνητής νοημοσύνης της περιοχής (αν και

αργότερα επανήλθε σε αυτά τα σχόλια

).

Η OpenAI υποστήριξε ότι η προσέγγισή της για τον μετριασμό των κινδύνων που προκύπτουν από τα GPAI είναι «ηγετική στον κλάδο» στη Λευκή Βίβλο που απέστειλε στην Επιτροπή της ΕΕ. «Αυτό που λένε είναι βασικά: εμπιστευτείτε μας να αυτορυθμιζόμαστε», είπε ο Daniel Leufer, ανώτερος αναλυτής πολιτικής στην Access Now.

χρόνος

. «Είναι πολύ μπερδεμένο γιατί μιλούν με πολιτικούς λέγοντας, “Παρακαλώ ρυθμίστε μας”, καυχιούνται για όλα τα [safety] πράγματα που κάνουν, αλλά μόλις πείτε, “Λοιπόν, ας σας πάρουμε τον λόγο σας και το θέσουμε ως ρυθμιστικό επίπεδο”, λένε όχι”.

Ο νόμος της ΕΕ για την τεχνητή νοημοσύνη έχει ακόμη δρόμο να διανύσει προτού τεθεί σε ισχύ. Η νομοθεσία θα συζητηθεί τώρα στο Ευρωπαϊκό Συμβούλιο σε ένα τελικό στάδιο «τριμερούς διαλόγου», ο οποίος στοχεύει στην οριστικοποίηση των λεπτομερειών εντός του νόμου, συμπεριλαμβανομένου του τρόπου και του πού μπορεί να εφαρμοστεί. Η τελική έγκριση αναμένεται μέχρι το τέλος του τρέχοντος έτους και ενδέχεται να χρειαστούν περίπου δύο χρόνια για να τεθεί σε ισχύ.


theverge.com



You might also like


Leave A Reply



Cancel Reply

Your email address will not be published.