Ο Sam Altman του OpenAI σπάει τη σιωπή για εκτελεστικό διάταγμα AI
Εκσυγχρονίζω
:
Ώρες μετά τη δημοσίευση αυτής της
ιστορία
ς, ο Sam Altman
αναρτήθηκε
στο X/Twitter λέγοντας, “υπάρχουν μερικά σπουδαία σημεία σχετικά με το AI EO, αλλά καθώς το εφαρμόζει η κυβέρνηση, θα είναι σημαντικό να μην επιβραδύνει την καινοτομία από μικρότερες εταιρείες/ομάδες έρευνας.”
Ο Άλτμαν είπε επίσης ότι είναι «υπέρ της ρύθμισης στα συνοριακά συστήματα», ή στα μοντέλα θεμελίωσης μεγάλης κλίμακας, και «κατά της ρυθμιστικής σύλληψης».
Το tweet μπορεί να έχει διαγραφεί
Στον απόηχο του εκτελεστικού διατάγματος του Προέδρου Μπάιντεν τη Δευτέρα, εταιρείες τεχνητής νοημοσύνης και ηγέτες του κλάδου στάθμισαν αυτό το ορόσημο στη ρύθμιση της τεχνητής νοημοσύνης. Αλλά ο μεγαλύτερος παίκτης στον χώρο της τεχνητής νοημοσύνης, το OpenAI, ήταν εμφανώς ήσυχος.
Το εκτεταμένο εκτελεστικό διάταγμα της κυβέρνησης Μπάιντεν-Χάρις για την αντιμετώπιση των κινδύνων της τεχνητής νοημοσύνης βασίζεται σε
εθελοντικές δεσμεύσεις
εξασφαλίζεται από 15 κορυφαίες εταιρείες τεχνητής νοημοσύνης. Το OpenAI ήταν μεταξύ των
πρώτη παρτίδα εταιρειών
να υποσχεθεί στον Λευκό Οίκο ασφαλή, ασφαλή και αξιόπιστη ανάπτυξη των εργαλείων τεχνητής νοημοσύνης του. Ωστόσο, η εταιρεία δεν έχει εκδώσει καμία δήλωση στον ιστότοπό της ή στο X (παλαιότερα γνωστό ως Twitter). Ο Διευθύνων Σύμβουλος Sam Altman, ο οποίος μοιράζεται τακτικά νέα του OpenAI στο X, δεν έχει δημοσιεύσει τίποτα επίσης.
Το OpenAI δεν έχει απαντήσει στο αίτημα του Mashable για σχολιασμό.
ΔΕΙΤΕ ΕΠΙΣΗΣ:
Ο Λευκός Οίκος ανακοινώνει νέες πρωτοβουλίες τεχνητής νοημοσύνης στην Παγκόσμια Σύνοδο Κορυφής για την Ασφάλεια της AI
Από τις 15 εταιρείες που δεσμεύτηκαν εθελοντικά στην κυβέρνηση Μπάιντεν, οι ακόλουθες έχουν κάνει δημόσιες δηλώσεις και όλες εξέφρασαν την υποστήριξή τους για το εκτελεστικό διάταγμα: Adobe, Amazon,
Anthropic
,
Google
IBM,
Microsoft
, Salesforce και Scale AI. Η Nvidia αρνείται να σχολιάσει.
Εκτός από τα κρίκετ από το OpenAI, το Mashable δεν έχει ακούσει ακόμη από τα Cohere, Inflection, Meta, Palantir και Stability AI. Αλλά η περιοδεία δημοσιότητας του OpenAI και του Altman που διακηρύσσει τους επείγοντες κινδύνους της τεχνητής νοημοσύνης και την ανάγκη για ρύθμιση κάνει τη σιωπή της εταιρείας ακόμη πιο αισθητή.
Το tweet μπορεί να έχει διαγραφεί
Το tweet μπορεί να έχει διαγραφεί
Ο Άλτμαν ήταν
φωνητικός
σχετικά με την απειλή που δημιουργεί η γενετική τεχνητή νοημοσύνη που δημιουργεί η δική του εταιρεία. Τον Μάιο, ο Άλτμαν, μαζί με τους πρωτοπόρους της τεχνολογίας, Τζέφρι Χίντον και Μπιλ Γκέιτς, υπέγραψαν συμφωνία
ανοίγω γράμμα,
δηλώνοντας, «Ο μετριασμός του κινδύνου εξαφάνισης από την τεχνητή νοημοσύνη θα πρέπει να αποτελεί παγκόσμια προτεραιότητα μαζί με άλλους κινδύνους κοινωνικής κλίμακας, όπως οι πανδημίες και ο πυρηνικός πόλεμος».
Σε ένα
ακρόαση της Γερουσίας
τον Μάιο, ο Άλτμαν εξέφρασε την ανάγκη για ρύθμιση της τεχνητής νοημοσύνης: “Νομίζω ότι αν αυτή η τεχνολογία πάει στραβά, μπορεί να πάει πολύ στραβά, και θέλουμε να είμαστε φωνητικοί για αυτό”, είπε ο Άλτμαν σε απάντηση ερώτησης από τον γερουσιαστή Blumenthal, D-CT για την απειλή της υπεράνθρωπης νοημοσύνης μηχανών.
Το tweet μπορεί να έχει διαγραφεί
Μέχρι στιγμής, η συνεργασία με νομοθέτες και παγκόσμιους ηγέτες έχει λειτουργήσει υπέρ του OpenAI. Ο Άλτμαν συμμετείχε στη δικομματική σύνοδο τεχνητής νοημοσύνης κεκλεισμένων των θυρών της Γερουσίας, δίνοντας στο OpenAI μια θέση στο τραπέζι για τη διαμόρφωση της νομοθεσίας για την τεχνητή νοημοσύνη. Λίγο μετά τη μαρτυρία του Άλτμαν, έγγραφα που διέρρευσαν από το OpenAI έδειχναν την εταιρεία να ασκεί πιέσεις για ασθενέστερη νομοθεσία στην
Ευρωπαϊκή Ένωση
.
Δεν είναι σαφές πού βρίσκεται το OpenAI στο εκτελεστικό διάταγμα, αλλά οι υποστηρικτές του ανοιχτού κώδικα λένε ότι η εταιρεία έχει ήδη πάρα πολύ μεγάλη επιρροή στο λόμπι. Την Τετάρτη, την ίδια ημέρα με τη Σύνοδο Κορυφής για την Ασφάλεια της AI στο Ηνωμένο Βασίλειο, περισσότεροι από 70 ηγέτες της τεχνητής νοημοσύνης εξέδωσαν
κοινή δήλωση
ζητώντας μια πιο διαφανή προσέγγιση στη ρύθμιση της τεχνητής νοημοσύνης. «Η ιδέα ότι ο αυστηρός και αποκλειστικός έλεγχος των θεμελιωδών μοντέλων τεχνητής νοημοσύνης είναι ο μόνος δρόμος για την προστασία μας από τις βλάβες σε κοινωνική κλίμακα είναι στην καλύτερη περίπτωση αφελής, στη χειρότερη επικίνδυνη», ανέφερε η δήλωση.
Ο επικεφαλής επιστήμονας τεχνητής νοημοσύνης της Meta, Yann LeCun, ένας από τους υπογράφοντες, υποστήριξε αυτό το συναίσθημα στο X (παλαιότερα γνωστό ως Twitter) από
φωνάζοντας
OpenAI, DeepMind (θυγατρική της Google) και Anthropic για τη χρήση του φόβου για την εξασφάλιση ευνοϊκών αποτελεσμάτων. “[Sam] Άλτμαν, [Demis] Χασάμπης, και [Dario] Οι Amodei είναι αυτοί που κάνουν μαζικά εταιρικά λόμπι αυτή τη στιγμή. Είναι αυτοί που προσπαθούν να πραγματοποιήσουν μια ρυθμιστική σύλληψη του κλάδου της τεχνητής νοημοσύνης», δημοσίευσε.
Το tweet μπορεί να έχει διαγραφεί
Ανθρωπικό
και
Google
Η ηγεσία και οι δύο υπέβαλαν δηλώσεις που υποστηρίζουν το εκτελεστικό διάταγμα, αφήνοντας την OpenAI τη μοναδική εταιρεία που κατηγορείται για δέσμευση ρυθμιστικών αρχών να μην έχει κάνει ακόμη κανένα σχόλιο.
Τι θα μπορούσε να σημαίνει το εκτελεστικό διάταγμα για το OpenAI;
Πολλές από τις διατάξεις δοκιμών στο EO σχετίζονται με τεράστια μοντέλα θεμελίωσης που δεν κυκλοφορούν ακόμη στην αγορά και μελλοντική ανάπτυξη συστημάτων τεχνητής νοημοσύνης, υποδηλώνοντας ότι τα εργαλεία που αντιμετωπίζουν οι καταναλωτές όπως το ChatGPT του OpenAI δεν θα επηρεαστούν πολύ.
«Δεν νομίζω ότι είναι πιθανό να δούμε άμεσες αλλαγές σε οποιοδήποτε από τα εργαλεία παραγωγής τεχνητής νοημοσύνης που είναι διαθέσιμα στους καταναλωτές», δήλωσε ο Τζέικ Γουίλιαμς, πρώην χάκερ της Υπηρεσίας Εθνικής Ασφάλειας των ΗΠΑ (NSA) και μέλος ΔΕΠ στο
Έρευνα IANS
. “Το OpenAI, η Google και άλλοι είναι σίγουρα μοντέλα ιδρυμάτων εκπαίδευσης και αυτά αναφέρονται ειδικά στον ΕΟ εάν ενδέχεται να επηρεάσουν την εθνική ασφάλεια.”
Έτσι, ό,τι δουλεύει το OpenAI μπορεί να υποβληθεί σε κυβερνητικές δοκιμές.
Όσον αφορά το πώς το εκτελεστικό διάταγμα μπορεί να επηρεάσει άμεσα το OpenAI, η Beth Simone Noveck, διευθύντρια του
Burnes Center for Social Change,
είπε ότι θα μπορούσε να επιβραδύνει τον ρυθμό κυκλοφορίας νέων προϊόντων και ενημερώσεων και οι εταιρείες θα πρέπει να επενδύσουν περισσότερα στην έρευνα και την ανάπτυξη και τη συμμόρφωση.
«Οι εταιρείες που αναπτύσσουν γλωσσικά μοντέλα μεγάλης κλίμακας (π.χ. ChatGPT,
Bard
και εκείνες που έχουν εκπαιδευτεί σε δισεκατομμύρια παραμέτρους δεδομένων) θα πρέπει να παρέχουν συνεχείς πληροφορίες στην ομοσπονδιακή κυβέρνηση, συμπεριλαμβανομένων λεπτομερειών για το πώς δοκιμάζουν τις πλατφόρμες τους», δήλωσε ο Noveck, ο οποίος προηγουμένως υπηρέτησε ως ο πρώτος Αναπληρωτής Διευθυντής Τεχνολογίας των Ηνωμένων Πολιτειών υπό τον Πρόεδρο Ομπάμα.
Περισσότερο από οτιδήποτε άλλο, το εκτελεστικό διάταγμα σηματοδοτεί μια ευθυγράμμιση με τις αυξανόμενες προσδοκίες των καταναλωτών για μεγαλύτερο έλεγχο και προστασία των προσωπικών τους δεδομένων, είπε.
Αβάνι Ντεσάι
Διευθύνων Σύμβουλος της Schellman, μιας κορυφαίας εταιρείας CPA που ειδικεύεται στον έλεγχο πληροφορικής και την ασφάλεια στον κυβερνοχώρο.
«Αυτή είναι μια τεράστια νίκη για τους υποστηρικτές της ιδιωτικής ζωής, καθώς τα μέτρα διαφάνειας και απορρήτου δεδομένων μπορούν να ενισχύσουν την εμπιστοσύνη των χρηστών στα προϊόντα και τις υπηρεσίες που λειτουργούν με τεχνητή νοημοσύνη», δήλωσε ο Desai.
Έτσι, ενώ οι συνέπειες του εκτελεστικού διατάγματος μπορεί να μην είναι άμεσες, ισχύει ξεκάθαρα για τα εργαλεία και τις πρακτικές του OpenAI. Θα πιστεύατε ότι το OpenAI μπορεί να έχει κάτι να πει για αυτό.
Θέμα
τα
Τεχνητή Νοημοσύνη OpenAI
VIA:
mashable.com
