Psst, ο Gary Marcus είναι στην ευχάριστη θέση να βοηθήσει στη ρύθμιση της τεχνητής νοημοσύνης για λογαριασμό της κυβέρνησης των ΗΠΑ

Την Τρίτη αυτής της εβδομάδας, ο νευροεπιστήμονας, ιδρυτής και συγγραφέας Gary Marcus κάθισε μεταξύ του Διευθύνοντος Συμβούλου του OpenAI, Sam Altman, και της Christina Montgomery, η οποία είναι η υπεύθυνη διαχείρισης απορρήτου της IBM, καθώς κατέθεσαν και οι τρεις ενώπιον της Επιτροπής Δικαιοσύνης της Γερουσίας για περισσότερες από τρεις ώρες. Οι γερουσιαστές επικεντρώθηκαν σε μεγάλο βαθμό στον Άλτμαν επειδή διευθύνει μια από τις πιο ισχυρές εταιρείες στον πλανήτη αυτή τη στιγμή και επειδή ο Άλτμαν τους έχει ζητήσει επανειλημμένα να βοηθήσουν στη ρύθμιση της εργασίας του. (Οι περισσότεροι CEOs παρακαλούν το Κογκρέσο να αφήσει ήσυχο τον κλάδο τους.)

Αν και ο Marcus είναι γνωστός στους ακαδημαϊκούς κύκλους εδώ και αρκετό καιρό, το αστέρι του έχει ανέβει τον τελευταίο καιρό χάρη στο ενημερωτικό δελτίο του (“

Ο δρόμος προς την τεχνητή νοημοσύνη που μπορούμε να εμπιστευτούμε

“), ένα podcast (“

Άνθρωποι εναντίον Μηχανών

“), και τη σχετική ανησυχία του για την ανεξέλεγκτη άνοδο της AI. Εκτός από την ακρόαση αυτής της εβδομάδας, για παράδειγμα, εμφανίστηκε αυτόν τον μήνα στην τηλεόραση του Bloomberg και εμφανίστηκε στους New York Times

Κυριακάτικο Περιοδικό

και

Ενσύρματο

μεταξύ άλλων τόπων.

Επειδή η ακρόαση αυτής της εβδομάδας φαινόταν πραγματικά ιστορική από άποψη – ο γερουσιαστής Josh Hawley χαρακτήρισε την τεχνητή νοημοσύνη ως «μια από τις πιο τεχνολογικές καινοτομίες στην ανθρώπινη ιστορία», ενώ ο γερουσιαστής John Kennedy γοητεύτηκε τόσο από τον Altman που ζήτησε από τον Altman να επιλέξει τους δικούς του ρυθμιστικούς φορείς – θέλαμε να μιλήστε με τον Marcus, επίσης, για να συζητήσετε την εμπειρία και να δείτε τι ξέρει για το τι θα συμβεί στη συνέχεια.


Είσαι ακόμα στην Ουάσιγκτον;

Είμαι ακόμα στην Ουάσιγκτον. Συναντιέμαι με νομοθέτες και το προσωπικό τους και διάφορους άλλους ενδιαφέροντες ανθρώπους και προσπαθώ να δω αν μπορούμε να μετατρέψουμε τα πράγματα για τα οποία μίλησα σε πραγματικότητα.


Έχετε διδάξει στο NYU. Έχετε συνιδρύσει μερικές εταιρείες τεχνητής νοημοσύνης, μεταξύ των οποίων

ένας

με τον διάσημο ρομποτικό Rodney Brooks. Πήρα συνέντευξη από τον Brooks στη σκηνή το 2017 και είπε τότε ότι δεν πίστευε ότι ο Elon Musk καταλάβαινε πραγματικά την τεχνητή νοημοσύνη και ότι πίστευε ότι ο Musk έκανε λάθος ότι η AI ήταν μια υπαρξιακή απειλή.

Νομίζω ότι ο Rod και εγώ μοιραζόμαστε σκεπτικισμό σχετικά με το εάν η τρέχουσα τεχνητή νοημοσύνη είναι κάτι σαν τεχνητή γενική νοημοσύνη. Υπάρχουν πολλά θέματα που πρέπει να ξεχωρίσετε. Το ένα είναι: είμαστε κοντά στο AGI και το άλλο πόσο επικίνδυνο είναι το τρέχον AI που έχουμε; Δεν νομίζω ότι η τρέχουσα τεχνητή νοημοσύνη που έχουμε είναι υπαρξιακή απειλή, αλλά ότι είναι επικίνδυνη. Από πολλές απόψεις, πιστεύω ότι αποτελεί απειλή για τη δημοκρατία. Αυτό δεν αποτελεί απειλή για την ανθρωπότητα. Δεν πρόκειται να αφανίσει όλους τους ανθρώπους. Αλλά είναι πολύ σοβαρός κίνδυνος.


Όχι πολύ καιρό πριν, συζητούσατε


Yann LeCun, επικεφαλής επιστήμονας AI του Meta.


Δεν είμαι σίγουρος τι

εκείνο το πτερύγιο

ήταν η πραγματική σημασία των νευρωνικών δικτύων βαθιάς μάθησης;

Έτσι, ο LeCun και εγώ έχουμε συζητήσει πολλά πράγματα για αυτά

πολλά χρόνια

. Είχαμε μια δημόσια συζήτηση την οποία συντόνισε ο Ντέιβιντ Τσάλμερς, ο φιλόσοφος, το 2017. Προσπαθώ να πετύχω [LeCun] να κάνει άλλη μια πραγματική συζήτηση από τότε και δεν θα το κάνει. Προτιμά να μου κάνει subtweet στο Twitter και άλλα τέτοια, που δεν νομίζω ότι είναι ο πιο ενήλικος τρόπος για να κάνεις συζητήσεις, αλλά επειδή είναι σημαντική φιγούρα, απαντώ.

Για ένα πράγμα νομίζω ότι διαφωνούμε [currently] είναι, ο LeCun πιστεύει ότι είναι καλό να τα χρησιμοποιείς [large language models] και ότι δεν υπάρχει καμία πιθανή ζημιά εδώ. Νομίζω ότι έχει πολύ λάθος σε αυτό. Υπάρχουν πιθανές απειλές για τη δημοκρατία, που κυμαίνονται από παραπληροφόρηση που παράγεται σκόπιμα από κακούς ηθοποιούς, από τυχαία παραπληροφόρηση –όπως ο καθηγητής Νομικής που κατηγορήθηκε για σεξουαλική παρενόχληση παρόλο που δεν την διέπραξε– [to the ability to] διαμορφώνουν διακριτικά τις πολιτικές πεποιθήσεις των ανθρώπων με βάση τα δεδομένα εκπαίδευσης για τα οποία το κοινό δεν γνωρίζει καν τίποτα. Είναι σαν τα social media, αλλά ακόμα πιο ύπουλο. Μπορείτε επίσης να χρησιμοποιήσετε αυτά τα εργαλεία για να χειραγωγήσετε άλλους ανθρώπους και πιθανώς να τους ξεγελάσετε σε οτιδήποτε θέλετε. Μπορείτε να τα κλιμακώσετε μαζικά. Σίγουρα υπάρχουν κίνδυνοι εδώ.


Είπατε κάτι ενδιαφέρον για τον Σαμ Άλτμαν την Τρίτη, λέγοντας στους γερουσιαστές ότι δεν τους είπε ποιος είναι ο χειρότερος φόβος του, τον οποίο αποκαλούσατε «γερμανός», και ανακατευθύνοντάς τους σε αυτόν. Αυτό που ακόμα δεν είπε είναι οτιδήποτε έχει να κάνει με αυτόνομα όπλα, για τα οποία μίλησα μαζί του πριν από μερικά χρόνια ως κορυφαία ανησυχία. Σκέφτηκα ότι ήταν ενδιαφέρον το ότι τα όπλα δεν εμφανίστηκαν.

Καλύψαμε ένα σωρό έδαφος, αλλά υπάρχουν πολλά πράγματα στα οποία δεν καταφέραμε, συμπεριλαμβανομένης της επιβολής, η οποία είναι πραγματικά σημαντική, και της εθνικής ασφάλειας και των αυτόνομων όπλων και τέτοια πράγματα. Θα υπάρξουν πολλά ακόμη [these].


Έγινε λόγος για ανοιχτό κώδικα έναντι κλειστών συστημάτων;

Δεν προέκυψε σχεδόν καθόλου. Είναι προφανώς μια πολύ περίπλοκη και ενδιαφέρουσα ερώτηση. Δεν είναι πραγματικά σαφές ποια είναι η σωστή απάντηση. Θέλετε οι άνθρωποι να κάνουν ανεξάρτητη επιστήμη. Ίσως θέλετε να έχετε κάποιο είδος αδειοδότησης για πράγματα που πρόκειται να αναπτυχθούν σε πολύ μεγάλη κλίμακα, αλλά ενέχουν ιδιαίτερους κινδύνους, συμπεριλαμβανομένων των κινδύνων ασφάλειας. Δεν είναι ξεκάθαρο ότι θέλουμε κάθε κακός ηθοποιός να έχει πρόσβαση σε αυθαίρετα ισχυρά εργαλεία. Επομένως, υπάρχουν επιχειρήματα υπέρ και υπάρχουν επιχειρήματα κατά, και πιθανώς η σωστή απάντηση θα περιλαμβάνει το να επιτρέπεται ένας δίκαιος βαθμός ανοιχτού κώδικα, αλλά και ορισμένοι περιορισμοί στο τι μπορεί να γίνει και πώς μπορεί να αναπτυχθεί.


Οποιεσδήποτε συγκεκριμένες σκέψεις σχετικά με τη στρατηγική της Meta να αφήσει το γλωσσικό της μοντέλο

έξω στον κόσμο

για να μπλέκουν οι άνθρωποι;

Δεν νομίζω ότι είναι υπέροχο αυτό [Meta’s AI technology] Η LLaMA είναι εκεί έξω για να είμαι ειλικρινής. Νομίζω ότι ήταν λίγο απρόσεκτο. Και, ξέρετε, αυτό είναι κυριολεκτικά ένα από τα τζίνι που είναι έξω από το μπουκάλι. Δεν υπήρχε νομική υποδομή. δεν συμβουλεύτηκαν κανέναν για το τι έκαναν, όσο δεν ξέρω. Ίσως το έκαναν, αλλά η διαδικασία λήψης αποφάσεων με αυτό ή, ας πούμε, το Bing, είναι βασικά απλή: μια εταιρεία αποφασίζει ότι θα το κάνουμε αυτό.

Αλλά μερικά από τα πράγματα που αποφασίζουν οι εταιρείες μπορεί να επιφέρουν βλάβη, είτε στο εγγύς μέλλον είτε μακροπρόθεσμα. Επομένως, πιστεύω ότι οι κυβερνήσεις και οι επιστήμονες θα πρέπει να έχουν ολοένα και περισσότερο κάποιο ρόλο στο να αποφασίζουν τι συμβαίνει εκεί έξω [through a kind of] FDA για τεχνητή νοημοσύνη όπου, αν θέλετε να κάνετε ευρεία ανάπτυξη, πρώτα κάνετε μια δοκιμή. Μιλάτε για τα οφέλη κόστους. Κάνεις άλλη δοκιμή. Και τελικά, αν είμαστε σίγουροι ότι τα οφέλη υπερτερούν των κινδύνων, [you do the] απελευθέρωση σε μεγάλη κλίμακα. Αλλά αυτή τη στιγμή, οποιαδήποτε εταιρεία ανά πάσα στιγμή μπορεί να αποφασίσει να αναπτύξει κάτι σε 100 εκατομμύρια πελάτες και να το κάνει χωρίς κανενός είδους κυβερνητική ή επιστημονική επίβλεψη. Πρέπει να έχετε κάποιο σύστημα στο οποίο μπορούν να μπουν κάποιες αμερόληπτες αρχές.


Από πού θα προέρχονταν αυτές οι αμερόληπτες αρχές; Όλοι όσοι γνωρίζουν τίποτα για το πώς λειτουργούν αυτά τα πράγματα δεν εργάζονται ήδη για μια εταιρεία;

Δεν είμαι. [Canadian computer scientist] Ο Yoshua Bengio δεν είναι. Υπάρχουν πολλοί επιστήμονες που δεν εργάζονται για αυτές τις εταιρείες. Είναι μια πραγματική ανησυχία, πώς να χορτάσουμε αυτούς τους ελεγκτές και πώς να τους δώσουμε κίνητρα να το κάνουν. Αλλά υπάρχουν 100.000 επιστήμονες υπολογιστών με κάποια πτυχή εμπειρίας εδώ. Δεν εργάζονται όλοι για την Google ή τη Microsoft με σύμβαση.


Θα θέλατε να παίξετε έναν ρόλο σε αυτό το πρακτορείο AI;

Με ενδιαφέρει, πιστεύω ότι ό,τι χτίζουμε θα πρέπει να είναι παγκόσμιο και ουδέτερο, πιθανώς μη κερδοσκοπικό, και νομίζω ότι έχω μια καλή, ουδέτερη φωνή εδώ που θα ήθελα να μοιραστώ και να προσπαθήσω να μας πάει σε ένα καλό μέρος.


Πώς ένιωθε να κάθεσαι ενώπιον της Επιτροπής Δικαιοσύνης της Γερουσίας; Και πιστεύεις ότι θα σε καλέσουν πίσω;

Δεν θα συγκλονιζόμουν αν με καλούσαν πίσω, αλλά δεν έχω ιδέα. Συγκινήθηκα πραγματικά βαθιά από αυτό και πραγματικά συγκινήθηκα βαθιά που βρέθηκα σε αυτό το δωμάτιο. Είναι λίγο μικρότερο από ό,τι στην τηλεόραση, υποθέτω. Αλλά ένιωθα ότι όλοι ήταν εκεί για να προσπαθήσουν να κάνουν το καλύτερο που μπορούσαν για τις ΗΠΑ – για την ανθρωπότητα. Όλοι ήξεραν το βάρος της στιγμής και κατά γενική ομολογία, οι γερουσιαστές έφεραν το καλύτερο παιχνίδι τους. Ξέραμε ότι ήμασταν εκεί για κάποιο λόγο και δώσαμε τον καλύτερό μας εαυτό.


techcrunch.com



You might also like

Leave A Reply



Cancel Reply

Your email address will not be published.