Η ακρόαση της Γερουσίας σχετικά με τη ρύθμιση της τεχνητής νοημοσύνης ήταν επικίνδυνα φιλική

Το πιο ασυνήθιστο πράγμα σχετικά με την ακρόαση της Γερουσίας αυτής της εβδομάδας για την τεχνητή νοημοσύνη ήταν το πώς

καταδεκτικός

ήταν. Οι εκπρόσωποι του κλάδου — κυρίως ο Διευθύνων Σύμβουλος της OpenAI, Sam Altman — συμφώνησαν με χαρά στην ανάγκη ρύθμισης των νέων τεχνολογιών τεχνητής νοημοσύνης, ενώ οι πολιτικοί έδειχναν πρόθυμοι να παραδώσουν την ευθύνη για τη σύνταξη κανόνων στις ίδιες τις εταιρείες. Ως γερουσιαστής Dick Durbin (D-IL)

βάλε το

στην εναρκτήρια ομιλία του: «Δεν μπορώ να θυμηθώ πότε είχαμε ανθρώπους που εκπροσωπούσαν μεγάλες εταιρείες ή οντότητες του ιδιωτικού τομέα να έρθουν μπροστά μας και να μας παρακαλέσουν να τους ρυθμίσουμε».

Αυτού του είδους η παρρησία κάνει τους ανθρώπους νευρικούς. Ορισμένοι ειδικοί και στελέχη του κλάδου λένε ότι η ακρόαση υποδηλώνει ότι μπορεί να οδηγούμαστε σε μια εποχή σύλληψης της βιομηχανίας στην τεχνητή νοημοσύνη. Εάν επιτραπεί στους τεχνολογικούς γίγαντες να γράψουν τους κανόνες που διέπουν αυτήν την τεχνολογία, λένε, θα μπορούσε να έχει μια σειρά από βλάβες, από τον πνιγμό μικρότερων εταιρειών έως την εισαγωγή αδύναμων κανονισμών.

Η δέσμευση του κλάδου θα μπορούσε να βλάψει μικρότερες επιχειρήσεις και να οδηγήσει σε αδύναμες ρυθμίσεις

Οι ειδικοί στην ακρόαση περιελάμβαναν την Christina Montgomery της IBM και τον κριτικό τεχνητής νοημοσύνης Gary Marcus, ο οποίος έθεσε επίσης το φάσμα της σύλληψης από ρυθμιστικές αρχές. (Ο κίνδυνος, είπε ο Μάρκους, είναι ότι «το κάνουμε να φαίνεται σαν να κάνουμε κάτι, αλλά είναι περισσότερο σαν πλύσιμο πράσινου και δεν συμβαίνει τίποτα στην πραγματικότητα, απλώς κρατάμε έξω τους μικρούς παίκτες.») Και παρόλο που κανείς από τη Microsoft ή την Google δεν ήταν παρόν, ο ανεπίσημος εκπρόσωπος της βιομηχανίας τεχνολογίας ήταν ο Altman.

Αν και το OpenAI του Altman εξακολουθεί να αποκαλείται «startup» από ορισμένους, είναι αναμφισβήτητα η εταιρεία με τη μεγαλύτερη επιρροή AI στον κόσμο. Η κυκλοφορία εργαλείων δημιουργίας εικόνας και κειμένου όπως το ChatGPT και οι συμφωνίες με τη Microsoft για την ανακατασκευή του Bing έχουν προκαλέσει σοκ σε ολόκληρη τη βιομηχανία της τεχνολογίας. Ο ίδιος ο Άλτμαν είναι σε καλή θέση: ικανός να προσελκύσει τόσο τη φαντασία της κλάσης VC όσο και τους σκληροπυρηνικούς ενισχυτές τεχνητής νοημοσύνης με μεγάλες υποσχέσεις για την κατασκευή υπερευφυούς τεχνητής νοημοσύνης και, ίσως μια μέρα,

με τα δικά του λόγια

«αιχμαλωτίστε τον κώνο φωτός κάθε μελλοντικής αξίας στο σύμπαν».

Στην ακρόαση αυτή την εβδομάδα, δεν ήταν τόσο μεγαλοπρεπής. Ο Άλτμαν, επίσης, ανέφερε το πρόβλημα της δέσμευσης ρυθμιστικών αρχών, αλλά ήταν λιγότερο σαφής σχετικά με τις σκέψεις του σχετικά με την αδειοδότηση μικρότερων οντοτήτων. «Δεν θέλουμε να επιβραδύνουμε τις μικρότερες νεοφυείς επιχειρήσεις. Δεν θέλουμε να επιβραδύνουμε τις προσπάθειες ανοιχτού κώδικα», είπε, προσθέτοντας, «ακόμα χρειαζόμαστε να συμμορφωθούν με τα πράγματα».

Η Sarah Myers West, διευθύνουσα σύμβουλος του ινστιτούτου AI Now, λέει

Το χείλος

ήταν καχύποπτη για το σύστημα αδειοδότησης που πρότειναν πολλοί ομιλητές. «Πιστεύω ότι το κακό θα είναι ότι καταλήξουμε σε κάποιο είδος επιφανειακής άσκησης του πλαισίου ελέγχου, όπου οι εταιρείες λένε «ναι, έχουμε άδεια, ξέρουμε ποιες είναι οι ζημιές και μπορούμε να συνεχίσουμε τη δουλειά ως συνήθως», αλλά δεν αντιμετωπίζουμε οποιαδήποτε πραγματική ευθύνη όταν αυτά τα συστήματα πάνε στραβά», είπε.

«Η απαίτηση άδειας για την εκπαίδευση μοντέλων θα συγκεντρώνει περαιτέρω την ισχύ στα χέρια λίγων»

Άλλοι επικριτές – ιδιαίτερα εκείνοι που διαχειρίζονται τις δικές τους εταιρείες τεχνητής νοημοσύνης – τόνισαν την πιθανή απειλή για τον ανταγωνισμό. «Οι ρυθμίσεις ευνοούν πάντα τους κατεστημένους φορείς και μπορούν να καταπνίξουν την καινοτομία», είπε ο Emad Mostaque, ιδρυτής και διευθύνων σύμβουλος της Stability AI.

Το χείλος

. Clem Delangue, Διευθύνων Σύμβουλος της startup AI Hugging Face,

ανέβασε στο Twitter

μια παρόμοια αντίδραση: «Η απαίτηση άδειας για την εκπαίδευση μοντέλων θα ήταν σαν να απαιτείται άδεια για τη σύνταξη κώδικα. Ο ΙΜΟ, θα συγκεντρώνει περαιτέρω την εξουσία στα χέρια λίγων και θα επιβραδύνει δραστικά την πρόοδο, τη δικαιοσύνη και τη διαφάνεια».

Ωστόσο, ορισμένοι ειδικοί λένε ότι κάποια μορφή αδειοδότησης θα μπορούσε να είναι αποτελεσματική. Η Margaret Mitchell, η οποία αναγκάστηκε να αποχωρήσει από την Google μαζί με τον Timnit Gebru μετά τη συγγραφή μιας ερευνητικής εργασίας σχετικά με τις πιθανές βλάβες των μοντέλων γλώσσας AI, περιγράφει τον εαυτό της ως «υπέρμαχος κάποιας ποσότητας αυτορρύθμισης, σε συνδυασμό με ρύθμιση από πάνω προς τα κάτω». Αυτή είπε

Το χείλος

ότι μπορούσε να δει την απήχηση της πιστοποίησης, αλλά ίσως για ιδιώτες και όχι για εταιρείες.

«Θα μπορούσατε να φανταστείτε ότι για να εκπαιδεύσει ένα μοντέλο (πάνω από κάποια όρια) ένας προγραμματιστής θα χρειαζόταν μια «εμπορική άδεια προγραμματιστή ML»», δήλωσε ο Mitchell, ο οποίος είναι τώρα επικεφαλής επιστήμονας ηθικής στο Hugging Face. «Αυτός θα ήταν ένας απλός τρόπος για να φέρουμε την «υπεύθυνη τεχνητή νοημοσύνη» σε μια νομική δομή».

Ο Μίτσελ πρόσθεσε ότι η καλή ρύθμιση εξαρτάται από τη θέσπιση προτύπων που οι επιχειρήσεις δεν μπορούν εύκολα να εκπληρώσουν προς όφελός τους και ότι αυτό απαιτεί μια λεπτή κατανόηση της τεχνολογίας που αξιολογείται. Δίνει το παράδειγμα της εταιρείας αναγνώρισης προσώπου Clearview AI, η οποία πούλησε τον εαυτό της στις αστυνομικές δυνάμεις υποστηρίζοντας ότι οι αλγόριθμοί της είναι «100 τοις εκατό» ακριβείς. Αυτό ακούγεται καθησυχαστικό, αλλά οι ειδικοί λένε ότι η εταιρεία χρησιμοποίησε

λοξές δοκιμές

για την παραγωγή αυτών των αριθμών. Η Μίτσελ πρόσθεσε ότι γενικά δεν εμπιστεύεται την Big Tech να ενεργεί προς το δημόσιο συμφέρον. «Εταιρείες τεχνολογίας [have] έδειξαν ξανά και ξανά ότι δεν βλέπουν το σεβασμό των ανθρώπων ως μέρος της διοίκησης μιας εταιρείας», είπε.

Ακόμη και αν εισαχθεί η αδειοδότηση, μπορεί να μην έχει άμεση ισχύ. Στην ακρόαση, εκπρόσωποι του κλάδου συχνά επέστησαν την προσοχή σε υποθετικές μελλοντικές βλάβες και, στη διαδικασία, έδωσαν ελάχιστη προσοχή στα γνωστά προβλήματα που ήδη επιτρέπει η τεχνητή νοημοσύνη.

Για παράδειγμα, ερευνητές όπως η Joy Buolamwini έχουν επανειλημμένα εντοπίσει προβλήματα με προκατάληψη στην αναγνώριση προσώπου, η οποία παραμένει

ανακριβής στον εντοπισμό μαύρων προσώπων

και έχει παραγάγει

πολλές περιπτώσεις


του άδικου


σύλληψη

στις Η.Π.Α. Παρόλα αυτά, η επιτήρηση βάσει τεχνητής νοημοσύνης δεν αναφέρθηκε καθόλου κατά τη διάρκεια της ακρόασης, ενώ η αναγνώριση προσώπου και τα ελαττώματα της αναφέρθηκαν μόνο μία φορά εν παρόδω.

Τα στοιχεία του κλάδου συχνά τονίζουν τις μελλοντικές βλάβες της τεχνητής νοημοσύνης για να αποφύγουν να μιλήσουν για τρέχοντα προβλήματα

Η AI Now’s West λέει ότι αυτή η εστίαση στις μελλοντικές βλάβες έχει γίνει μια συνηθισμένη ρητορική παρεξήγηση μεταξύ των προσώπων του κλάδου της τεχνητής νοημοσύνης. Αυτά τα άτομα «θέτουν την ευθύνη στο μέλλον», είπε, μιλώντας γενικά για τεχνητά

γενικός

νοημοσύνη ή AGI: ένα υποθετικό σύστημα AI πιο έξυπνο από τους ανθρώπους σε μια σειρά εργασιών. Κάποιοι ειδικοί προτείνουν να πάρουμε

πιο κοντά στη δημιουργία τέτοιων συστημάτων

αλλά αυτό το συμπέρασμα αμφισβητείται έντονα.

Αυτή η ρητορική προσποίηση ήταν εμφανής στην ακρόαση. Συζητώντας τις κρατικές άδειες, ο Altman του OpenAI πρότεινε σιωπηλά ότι τυχόν άδειες πρέπει να ισχύουν μόνο για

μελλοντικός

συστήματα. «Αυτό που νομίζω ότι μπαίνει το σύστημα αδειοδότησης δεν είναι για αυτό που μπορούν αυτά τα μοντέλα σήμερα».

αυτός είπε

. «Αλλά καθώς κατευθυνόμαστε προς την τεχνητή γενική νοημοσύνη… εκεί είναι που προσωπικά πιστεύω ότι χρειαζόμαστε ένα τέτοιο σχέδιο».

Οι ειδικοί συνέκριναν τις προτάσεις του Κογκρέσου (και του Altman) δυσμενώς με τον επικείμενο νόμο της ΕΕ για την τεχνητή νοημοσύνη. Το τρέχον σχέδιο αυτής της νομοθεσίας δεν περιλαμβάνει μηχανισμούς συγκρίσιμους με την αδειοδότηση, αλλά ταξινομεί τα συστήματα τεχνητής νοημοσύνης με βάση το επίπεδο κινδύνου και επιβάλλει διαφορετικές απαιτήσεις για διασφαλίσεις και προστασία δεδομένων. Πιο αξιοσημείωτη, ωστόσο, είναι οι σαφείς απαγορεύσεις γνωστών και τρέχουσες επιβλαβείς περιπτώσεις χρήσης τεχνητής νοημοσύνης, όπως αλγόριθμοι πρόβλεψης αστυνόμευσης και μαζική παρακολούθηση, που έχουν προσελκύσει επαίνους από ειδικούς στα ψηφιακά δικαιώματα.

Όπως λέει ο Γουέστ, «Εκεί πρέπει να κατευθυνθεί η συζήτηση εάν θέλουμε να επιτύχουμε οποιοδήποτε είδος ουσιαστικής λογοδοσίας σε αυτόν τον κλάδο».


theverge.com



You might also like


Leave A Reply



Cancel Reply

Your email address will not be published.