Τετάρτη, 4 Οκτωβρίου, 2023

Πώς θα ήταν ο κανονισμός για την τεχνητή νοημοσύνη;

φωτογραφία: Κερδίστε τον McNamee (Getty Images)

Φαγητά σε πακέτο:

  • Μια νέα ομοσπονδιακή υπηρεσία για τη ρύθμιση της τεχνητής νοημοσύνης ακούγεται χρήσιμη, αλλά θα μπορούσε να επηρεαστεί αδικαιολόγητα από τη βιομηχανία της ς. Αντίθετα, το Κογκρέσο μπορεί να νομοθετήσει τη λογοδοσία.
  • Αντί να αδειοδοτεί εταιρείες να κυκλοφορούν προηγμένες τεχνολογίες τεχνητής νοημοσύνης, η κυβέρνηση θα μπορούσε να αδειοδοτήσει ελεγκτές και να πιέσει τις εταιρείες να συστήσουν θεσμικά συμβούλια αναθεώρησης.
  • Η κυβέρνηση δεν είχε μεγάλη επιτυχία στον περιορισμό των μονοπωλίων τεχνολογίας, αλλά οι απαιτήσεις αποκάλυψης και οι νόμοι περί απορρήτου δεδομένων θα μπορούσαν να βοηθήσουν στον έλεγχο της εταιρικής ισχύος.

Ο Διευθύνων Σύμβουλος της OpenAI, Sam Altman, προέτρεψε τους νομοθέτες να εξετάσουν το ενδεχόμενο ρύθμισης της τεχνητής νοημοσύνης κατά τη διάρκεια τη μαρτυρία του στη Γερουσία στις 16 Μαΐου 2023. Αυτή η σύσταση εγείρει το ερώτημα για το τι θα ακολουθήσει για το Κογκρέσο. Οι λύσεις που πρότεινε ο Άλτμαν – δημιουργία μιας ρυθμιστικής υπηρεσίας τεχνητής νοημοσύνης και απαίτηση αδειοδότησης για εταιρείες – είναι ενδιαφέρουσες. Αλλά αυτό που πρότειναν οι άλλοι ειδικοί στο ίδιο πάνελ είναι τουλάχιστον εξίσου σημαντικό: που απαιτεί διαφάνεια στα δεδομένα εκπαίδευσης και θέσπιση σαφών πλαισίων για κινδύνους που σχετίζονται με την τεχνητή νοημοσύνη.

Ένα άλλο σημείο που έμεινε ανείπωτο ήταν ότι, δεδομένων των οικονομικών της κατασκευής μοντέλων τεχνητής νοημοσύνης μεγάλης κλίμακας, η βιομηχανία μπορεί να είναι μάρτυρας της εμφάνισης ενός νέου τύπου τεχνολογικού μονοπωλίου.

Ως ερευνητής που μελετά τα μέσα κοινωνικής δικτύωσης και την τεχνητή νοημοσύνη, πιστεύω ότι οι προτάσεις του Altman έχουν επισημάνει σημαντικά ζητήματα, αλλά δεν δίνουν απαντήσεις από μόνες τους. Ο κανονισμός θα ήταν χρήσιμος, αλλά με ποια μορφή; Η αδειοδότηση έχει επίσης νόημα, αλλά για ποιον; Και κάθε προσπάθεια ρύθμισης της βιομηχανίας τεχνητής νοημοσύνης θα πρέπει να λαμβάνει υπόψη την οικονομική δύναμη και την πολιτική επιρροή των εταιρειών.

Μια υπηρεσία που θα ρυθμίζει την τεχνητή νοημοσύνη;

Νομοθέτες και πολιτικοί σε όλο τον κόσμο έχουν ήδη αρχίσει να αντιμετωπίζουν ορισμένα από τα ζητήματα που τέθηκαν στην κατάθεση του Άλτμαν. ο Νόμος AI της Ευρωπαϊκής Ένωσης βασίζεται σε ένα μοντέλο κινδύνου που κατατάσσει τις εφαρμογές τεχνητής νοημοσύνης σε τρεις κατηγορίες κινδύνου: απαράδεκτο, υψηλού κινδύνου και χαμηλό ή ελάχιστο κίνδυνο. Αυτή η κατηγοριοποίηση αναγνωρίζει ότι τα εργαλεία για κοινωνική βαθμολογία από τις κυβερνήσεις και αυτοματοποιημένα εργαλεία για προσλήψεις ενέχουν διαφορετικούς κινδύνους από αυτούς από τη χρήση της τεχνητής νοημοσύνης σε φίλτρα ανεπιθύμητης αλληλογραφίας, για παράδειγμα.

Το Εθνικό Ινστιτούτο Προτύπων και Τεχνολογίας των ΗΠΑ έχει επίσης ένα Πλαίσιο διαχείρισης κινδύνου AI που δημιουργήθηκε με εκτεταμένη εισαγωγή από πολλαπλούς ενδιαφερόμενουςσυμπεριλαμβανομένου του Εμπορικού Επιμελητηρίου των ΗΠΑ και της Ομοσπονδίας Αμερικανών Επιστημόνων, καθώς και άλλων επιχειρηματικών και επαγγελματικών ενώσεων, εταιρειών τεχνολογίας και δεξαμενών σκέψης.

Ομοσπονδιακές υπηρεσίες όπως η Επιτροπή Ίσων Ευκαιριών Απασχόλησης και το Ομοσπονδιακή Επιτροπή Εμπορίου έχουν ήδη εκδώσει κατευθυντήριες γραμμές για ορισμένους από τους εγγενείς κινδύνους της τεχνητής νοημοσύνης. Η Επιτροπή Ασφάλειας Καταναλωτικών Προϊόντων και άλλοι φορείς μπορούν επίσης να διαδραματίσουν κάποιο ρόλο.

Αντί να δημιουργήσετε μια νέα εταιρεία που θα διευθύνει το κίνδυνο να παραβιαστεί από τη βιομηχανία τεχνολογίας που προορίζεται να ρυθμίσει, το Κογκρέσο μπορεί να υποστηρίξει την ιδιωτική και δημόσια υιοθέτηση του Πλαίσιο διαχείρισης κινδύνου NIST και να περάσουν νομοσχέδια όπως το Νόμος Αλγοριθμικής Λογοδοσίας. Αυτό θα είχε ως αποτέλεσμα επιβολή λογοδοσίαςόσο ο νόμος Sarbanes-Oxley και άλλοι κανονισμοί μεταμόρφωσαν τις απαιτήσεις υποβολής εκθέσεων για τις εταιρείες. Το Κογκρέσο μπορεί επίσης υιοθέτηση περιεκτικών νόμων σχετικά με το απόρρητο των δεδομένων.

Η ρύθμιση της τεχνητής νοημοσύνης θα πρέπει να περιλαμβάνει συνεργασία μεταξύ ακαδημαϊκού κόσμου, βιομηχανίας, εμπειρογνωμόνων πολιτικής και διεθνών φορέων. Οι ειδικοί έχουν παρομοιάσει αυτή την προσέγγιση με διεθνείς οργανισμούς όπως ο Ευρωπαϊκός Οργανισμός Πυρηνικής Έρευνας, γνωστός ως CERN, και ο Διακυβερνητική Επιτροπή για την Αλλαγή του Κλίματος. Το διαδίκτυο ήταν διαχειρίζεται μη κυβερνητικοί φορείς που εμπλέκουν μη κερδοσκοπικούς οργανισμούς, την κοινωνία των πολιτών, τη βιομηχανία και φορείς χάραξης πολιτικής, όπως Internet Corporation για εκχωρημένα ονόματα και αριθμούς και το Παγκόσμια Συνέλευση Τυποποίησης Τηλεπικοινωνιών. Αυτά τα παραδείγματα παρέχουν μοντέλα για τη βιομηχανία και τους υπεύθυνους χάραξης πολιτικής σήμερα.

Ο γνωστικός επιστήμονας και προγραμματιστής AI Gary Marcus εξηγεί την ανάγκη ρύθμισης της τεχνητής νοημοσύνης.

Αδειοδότηση ελεγκτών, όχι εταιρειών

Αν και ο Altman του OpenAI πρότεινε ότι οι εταιρείες θα μπορούσαν να λάβουν άδεια για την κυκλοφορία τεχνολογιών τεχνητής νοημοσύνης στο κοινό, διευκρίνισε ότι ήταν αναφερόμενος στην τεχνητή γενική νοημοσύνη, που σημαίνει πιθανά μελλοντικά συστήματα AI με ανθρώπινη νοημοσύνη που θα μπορούσαν να αποτελέσουν απειλή για την ανθρωπότητα. Αυτό θα ήταν παρόμοιο με τις εταιρείες που έχουν άδεια να χειρίζονται άλλες δυνητικά επικίνδυνες τεχνολογίες, όπως η πυρηνική ενέργεια. Αλλά η αδειοδότηση θα μπορούσε να παίξει έναν ρόλο πολύ πριν συμβεί ένα τέτοιο φουτουριστικό σενάριο.

Αλγοριθμικός έλεγχος θα απαιτούσε διαπιστευτήρια, πρότυπα πρακτικής και εκτεταμένη εκπαίδευση. Η απαίτηση λογοδοσίας δεν είναι απλώς θέμα αδειοδότησης ατόμων, αλλά απαιτεί επίσης πρότυπα και πρακτικές σε ολόκληρη την εταιρεία.

Οι ειδικοί για τη δικαιοσύνη της τεχνητής νοημοσύνης υποστηρίζουν ότι τα ζητήματα μεροληψίας και δικαιοσύνης στην τεχνητή νοημοσύνη δεν μπορούν να αντιμετωπιστούν μόνο με τεχνικές μεθόδους, αλλά απαιτούν πιο ολοκληρωμένες πρακτικές μετριασμού του κινδύνου, όπως π. υιοθέτηση επιτροπών θεσμικής αναθεώρησης για την τεχνητή νοημοσύνη. Οι θεσμικές επιτροπές αναθεώρησης στον ιατρικό τομέα συμβάλλουν στην προάσπιση των ατομικών δικαιωμάτων, για παράδειγμα.

Οι ακαδημαϊκοί φορείς και οι επαγγελματικές ενώσεις έχουν επίσης υιοθετήσει πρότυπα για την υπεύθυνη χρήση της τεχνητής νοημοσύνης, είτε πρότυπα συγγραφής για κείμενο που δημιουργείται από AI ή πρότυπα για την κοινή χρήση δεδομένων με τη μεσολάβηση ασθενών στην ιατρική.

Η ενίσχυση των υφιστάμενων καταστατικών για την ασφάλεια, το απόρρητο και την προστασία των καταναλωτών με την εισαγωγή κανόνων αλγοριθμικής λογοδοσίας θα βοηθούσε στην απομυθοποίηση πολύπλοκων συστημάτων τεχνητής νοημοσύνης. Είναι επίσης σημαντικό να αναγνωρίσουμε ότι η μεγαλύτερη λογοδοσία και διαφάνεια δεδομένων μπορεί να επιβάλει νέους περιορισμούς στους οργανισμούς.

Οι μελετητές του απορρήτου των δεδομένων και της ηθικής της τεχνητής νοημοσύνης έχουν ζητήσει «τεχνολογική ορθή διαδικασία» και πλαίσια για την αναγνώριση των βλαβών των προγνωστικών διαδικασιών. Η ευρεία χρήση λήψης αποφάσεων με δυνατότητα τεχνητής νοημοσύνης σε τομείς όπως η απασχόληση, η ασφάλιση και η υγειονομική περίθαλψη απαιτεί απαιτήσεις αδειοδότησης και ελέγχου για τη διασφάλιση διαδικαστικής δικαιοσύνης και διασφαλίσεων απορρήτου.

Ωστόσο, η απαίτηση τέτοιων διατάξεων λογοδοσίας απαιτεί α έντονη συζήτηση μεταξύ των προγραμματιστών τεχνητής νοημοσύνης, των πολιτικών και εκείνων που επηρεάζονται από την ευρεία ανάπτυξη της τεχνητής νοημοσύνης. Στο απουσία ισχυρών αλγοριθμικών πρακτικών λογοδοσίαςο κίνδυνος είναι στενοί έλεγχοι που προάγουν την εμφάνιση της συμμόρφωσης.

μονοπώλια AI;

Αυτό που επίσης έλειπε στη μαρτυρία του Άλτμαν είναι το έκταση της επένδυσης απαιτείται για την εκπαίδευση μοντέλων τεχνητής νοημοσύνης μεγάλης κλίμακας, είτε είναι GPT-4που είναι ένα από τα θεμέλια του ChatGPTή συσκευή δημιουργίας κειμένου σε εικόνα Σταθερή Διάχυση. Μόνο λίγες εταιρείες, όπως η , η Meta, η Amazon και η , είναι υπεύθυνες ανάπτυξη των μεγαλύτερων γλωσσικών μοντέλων στον κόσμο.

Δεδομένης της έλλειψης διαφάνειας στα δεδομένα εκπαίδευσης που χρησιμοποιούνται από αυτές τις εταιρείες, οι εμπειρογνώμονες ηθικής τεχνητής νοημοσύνης Timnit Gebru, Emily Bender και άλλοι έχουν προειδοποιήσει ότι η υιοθέτηση τέτοιων τεχνολογιών σε μεγάλη κλίμακα χωρίς αντίστοιχους κινδύνους επίβλεψης ενίσχυση της προκατάληψης των μηχανών σε κοινωνική κλίμακα.

Είναι επίσης σημαντικό να αναγνωρίσουμε ότι τα δεδομένα εκπαίδευσης για εργαλεία όπως το ChatGPT περιλαμβάνουν την πνευματική εργασία πολλών ανθρώπων, όπως οι συνεργάτες της Wikipedia, οι bloggers και οι συγγραφείς ψηφιοποιημένων βιβλίων. Τα οικονομικά οφέλη από αυτά τα εργαλεία, ωστόσο, προκύπτουν μόνο στις εταιρείες τεχνολογίας.

Η απόδειξη της μονοπωλιακής ισχύος των εταιρειών τεχνολογίας μπορεί να είναι δύσκολη, όπως η υπόθεση της αντιμονοπωλιακής νομοθεσίας του Υπουργείου Δικαιοσύνης εναντίον της Microsoft αποδείχθηκε. Πιστεύω ότι οι πιο εφικτές ρυθμιστικές επιλογές για το Κογκρέσο για την αντιμετώπιση πιθανών αλγοριθμικών βλαβών από την τεχνητή νοημοσύνη μπορεί να είναι η ενίσχυση των απαιτήσεων γνωστοποίησης τόσο για εταιρείες τεχνητής νοημοσύνης όσο και για χρήστες τεχνητής νοημοσύνης, η παρότρυνση για ολοκληρωμένη υιοθέτηση πλαισίων αξιολόγησης κινδύνου τεχνητής νοημοσύνης και η απαίτηση διαδικασιών που προστατεύουν τα μεμονωμένα δεδομένα δικαιώματα και ιδιωτικότητα.

Θέλετε να μάθετε περισσότερα για την τεχνητή νοημοσύνη, τα chatbots και το μέλλον της μηχανικής μάθησης; Δείτε την πλήρη κάλυψή μας για τεχνητή νοημοσύνηή περιηγηθείτε στους οδηγούς μας Οι καλύτερες δωρεάν γεννήτριες τέχνης AI και Όλα όσα γνωρίζουμε για το ChatGPT του OpenAI.

Αντζάνα ΣουσάρλαΚαθηγητής Πληροφοριακών Συστημάτων, Κρατικό Πανεπιστήμιο του Μίσιγκαν

Αυτό το άρθρο αναδημοσιεύεται από Η συζήτηση με άδεια Creative Commons. Διαβάστε το πρωτότυπο άρθρο.



gizmodo.com

ΑΦΗΣΤΕ ΜΙΑ ΑΠΑΝΤΗΣΗ

εισάγετε το σχόλιό σας!
παρακαλώ εισάγετε το όνομά σας εδώ

Stay Connected

4,234ΥποστηρικτέςΚάντε Like
34ΑκόλουθοιΑκολουθήστε
3,542ΑκόλουθοιΑκολουθήστε
432ΑκόλουθοιΑκολουθήστε
321ΑκόλουθοιΑκολουθήστε
251ΣυνδρομητέςΓίνετε συνδρομητής

ΠΡΟΣΦΑΤΑ ΑΡΘΡΑ