Τι σχέση έχει ένας θαυμαστής του Χάρι Πότερ με το OpenAI;
Έχετε ποτέ τρυπήσει και είχατε διάρροια ταυτόχρονα; Έχω, και όταν συνέβη, άκουγα μια έκδοση ήχου βιβλίου από θαυμαστές
Ο Χάρι Πότερ και οι μέθοδοι του ορθολογισμού
(HPMOR), μια μυθοπλασία θαυμαστών γραμμένη από τον Eliezer Yudkowsky.
Όχι, ο σωματικός τρόμος με διπλό τέλος δεν υποκινήθηκε από το fanfic, αλλά οι δύο εμπειρίες είναι αξεδιάλυτες στο μυαλό μου. Συγκλονίστηκα όταν ανακάλυψα χρόνια αργότερα ότι το fanfic 660.000 λέξεων που μαραθώνιασα ενώ ήμουν άρρωστος έχει μερικές παράξενες διασταυρώσεις με τους εξαιρετικά πλούσιους τεχνοράτες, συμπεριλαμβανομένων πολλών από τις προσωπικότητες που εμπλέκονται στην τρέχουσα κατασ
τροφή
του
OpenAI
.
Ενδεικτική περίπτωση: σε ένα
το πασχαλινό αυγό εντόπισε το 404 Media
(το οποίο ήταν πολύ ασήμαντο για να το παρατηρήσει οποιοσδήποτε άλλος –ακόμα και εγώ, κάποιος που έχει διαβάσει τις χιλιάδες οπαδούς της σελίδας–), υπάρχει ένας κάποτε αναφερόμενος παίκτης Κουίντιτς στην εκτεταμένη ιστορία που ονομάζεται Emmett Shear. Ναι, ο ίδιος ο Emmett Shear που συνίδρυσε το Twitch και μόλις ονομάστηκε προσωρινός Διευθύνων Σύμβουλος της OpenAI, αναμφισβήτητα της εταιρείας με τη μεγαλύτερη επιρροή της δεκαετίας του 2020. Ο Shear ήταν θαυμαστής του έργου του Yudkowsky, ακολουθώντας τη σειριακή ιστορία όπως δημοσιεύτηκε στο διαδίκτυο. Έτσι, ως δώρο γενεθλίων, του έκαναν δώρο ένα καμέο.
Ο Shear είναι ένας μακροχρόνιος θαυμαστής των γραπτών του Yudkowsky, όπως και πολλοί από τους βασικούς παίκτες της βιομηχανίας AI. Αλλά αυτός ο θαυμαστής του Χάρι Πότερ είναι το πιο δημοφιλές έργο του Γιουντκόφσκι.
Το HPMOR είναι ένα εναλλακτικό σύμπαν που ξαναγράφει τη σειρά του Χάρι Πότερ, η οποία ξεκινά με την υπόθεση ότι η θεία του Χάρι, η Πετούνια, παντρεύτηκε έναν καθηγητή βιοχημείας της Οξφόρδης, αντί για τον καταχρηστικό Βέρνον Ντάρσλι. Έτσι, ο Χάρι μεγαλώνει ως ένα παιδί που τα ξέρει όλα και έχει εμμονή με την ορθολογιστική σκέψη, μια ιδεολογία που βραβεύει την πειραματική, επιστημονική σκέψη για την επίλυση προβλημάτων, αποφεύγοντας το συναίσθημα, τη θρησκεία ή άλλα ανακριβή μέτρα. Δεν είναι τρεις σελίδες στην ιστορία πριν ο Χάρι παραθέσει τις Διαλέξεις Φάινμαν για τη Φυσική για να προσπαθήσει να λύσει μια διαφωνία μεταξύ των θετών γονέων του σχετικά με το αν η μαγεία είναι αληθινή ή όχι. Αν νόμιζες
πραγματικός
Ο Χάρι Πότερ μπορεί να είναι λίγο απογοητευτικός μερικές φορές (γιατί δεν κάνει ποτέ στον Ντάμπλντορ τις πιο προφανείς ερωτήσεις;), ετοιμαστείτε για
Αυτό
Ο Χάρι Πότερ, ο οποίος θα μπορούσε να δώσει στον ομώνυμο «Νεαρό Σέλντον» τα λεφτά του.
Είναι λογικό ότι ο Yudkowsky τρέχει στους ίδιους κύκλους με πολλά από τα άτομα με τη μεγαλύτερη επιρροή στην τεχνητή νοημοσύνη σήμερα, αφού ο ίδιος είναι μακροχρόνιος ερευνητής AI. Σε ένα
χαρακτηριστικό
του New Yorker το 2011 στο
τεχνο-ελευθεριακοί της Silicon Valley
, αναφέρει ο George Packer από ένα δείπνο στο σπίτι του δισεκατομμυριούχου επιχειρηματικού κεφαλαίου Peter Thiel, ο οποίος αργότερα θα συνίδρυσε και θα επενδύσει στο OpenAI. Καθώς οι «ξανθιές με μαύρα φορέματα» ρίχνουν κρασί στους άνδρες, ο Packer δειπνεί με συνιδρυτές του
PayPal
όπως ο David Sacks και ο Luke Nosek. Στο πάρτι είναι επίσης η Πάτρι Φρίντμαν, ένας πρώην μηχανικός της Google που πήρε χρηματοδότηση από τον Thiel για να ξεκινήσει μια μη κερδοσκοπική οργάνωση που στοχεύει στην οικοδόμηση πλωτών, αναρχικών θαλάσσιων πολιτισμών εμπνευσμένων από το φεστιβάλ Burning Man (μετά από δεκαπέντε χρόνια, ο οργανισμός δεν φαίνεται να έχει έκανε μεγάλη πρόοδο). Και μετά υπάρχει ο Yudkowsky.
Για να συνδέσετε περαιτέρω τα εμπλεκόμενα μέρη, ιδού: μια selfie δέκα μηνών του εκδιωχθέντος πλέον CEO του OpenAI Sam Altman, του Grimes και του Yudkowsky.
Ο Yudkowsky δεν είναι γνωστό όνομα όπως ο Altman ή ο Elon Musk. Αλλά τείνει να εμφανίζεται επανειλημμένα στις ιστορίες πίσω από εταιρείες όπως η OpenAI, ή ακόμα και πίσω από τον μεγάλο ρομαντισμό που μας έφερε τα παιδιά με το όνομα X Æ A-Xii, Exa Dark Sideræl και Techno Mechanicus. Όχι, πραγματικά – ο Μασκ κάποτε ήθελε να στείλει ένα αστείο στο Twitter για το «
Βασιλίσκος του Ρόκου
», ένα πείραμα σκέψης σχετικά με την τεχνητή νοημοσύνη που ξεκίνησε από το LessWrong, το ιστολόγιο και το φόρουμ της κοινότητας του Yudkowsky. Αλλά, όπως αποδείχθηκε, η Grimes είχε ήδη κάνει το ίδιο αστείο για ένα “Rococo Basilisk” στο μουσικό βίντεο για το
τραγούδι
της “Flesh Without Blood”.
Το HPMOR είναι κυριολεκτικά ένα εργαλείο στρατολόγησης για το ορθολογιστικό κίνημα, το οποίο βρίσκει το εικονικό του σπίτι στο LessWrong του Yudkowsky. Μέσα από μια ομολογουμένως διασκεδαστική ιστορία, ο Yudkowsky χρησιμοποιεί τον οικείο κόσμο του Χάρι Πότερ για να επεξηγήσει την ορθολογιστική ιδεολογία, δείχνοντας πώς ο Χάρι εργάζεται ενάντια στις γνωστικές του προκαταλήψεις για να γίνει κύριος επίλυσης προβλημάτων. Σε μια τελευταία αναμέτρηση μεταξύ του Χάρι και του καθηγητή Κουίρελ – του μέντορά του στον ορθολογισμό που αποδεικνύεται κακός– ο Γιουντκόφσκι έσπασε τον τέταρτο τοίχο και έδωσε στους αναγνώστες του ένα «
τελικές εξετάσεις
.» Ως κοινότητα, οι αναγνώστες έπρεπε να υποβάλουν ορθολογιστικές θεωρίες εξηγώντας πώς ο Χάρι μπορούσε να βγάλει τον εαυτό του από μια μοιραία δύσκολη θέση. Ευτυχώς, για χάρη του αίσιο τέλος, η κοινότητα πέρασε.
Αλλά το ήθος του HPMOR δεν είναι απλώς να είσαι καλύτερος ορθολογιστής ή όσο «λιγότερο λάθος» μπορείς.
«Για μένα, τόσο μεγάλο μέρος του HPMOR αφορά το πώς ο ορθολογισμός μπορεί να σε κάνει απίστευτα αποτελεσματικό, αλλά το απίστευτα αποτελεσματικό μπορεί να είναι ακόμα απίστευτα κακό», μου είπε ο μόνος άλλος φίλος μου που έχει διαβάσει το HPMOR. «Αισθάνομαι ότι το όλο νόημα του HPMOR είναι ότι ο ορθολογισμός είναι άσχετος στο τέλος της ημέρας εάν η ευθυγράμμισή σας είναι με το κακό».
Αλλά, φυσικά, δεν μπορούμε όλοι να συμφωνήσουμε σε έναν ορισμό του καλού εναντίον του κακού. Αυτό μας φέρνει πίσω στις ανατροπές στο OpenAI, μια εταιρεία που προσπαθεί να δημιουργήσει μια τεχνητή νοημοσύνη που είναι πιο έξυπνη από τους ανθρώπους. Το OpenAI θέλει να ευθυγραμμίσει αυτήν την τεχνητή γενική νοημοσύνη (AGI) με τις ανθρώπινες αξίες (όπως η ανθρώπινη αξία του να μην σκοτωθείς σε ένα αποκαλυπτικό γεγονός που προκαλείται από την τεχνητή νοημοσύνη), αλλά τυχαίνει αυτό «
έρευνα ευθυγράμμισης
” είναι η ειδικότητα του Yudkowsky.
Τον Μάρτιο, χιλιάδες αξιόλογες προσωπικότητες της τεχνητής νοημοσύνης υπέγραψαν μια ανοιχτή επιστολή υποστηρίζοντας ότι όλα τα εργαστήρια τεχνητής νοημοσύνης πρέπει να σταματήσουν αμέσως για τουλάχιστον 6 μήνες.
Μεταξύ των υπογραφόντων ήταν μηχανικοί της Meta και της Google, ιδρυτές των Skype, Getty Images και Pinterest, ο ιδρυτής της Stability AI, Emad Mostaque, ο Steve Wozniak, ακόμη και ο Elon Musk, συνιδρυτής του Open AI που παραιτήθηκε το 2018. Αλλά ο Yudkowsky δεν υπέγραψε την επιστολή , και αντ’ αυτού, έγραψαν
ένα άρθρο στο περιοδικό TIME
να υποστηρίξει ότι μια εξάμηνη παύση δεν είναι αρκετά ριζική.
«Αν κάποιος κατασκευάσει ένα πολύ ισχυρό AI, υπό τις παρούσες συνθήκες, περιμένω ότι κάθε μέλος του ανθρώπινου είδους και όλη η βιολογική ζωή στη Γη θα πεθάνει λίγο αργότερα», έγραψε ο Yudkowsky. «Δεν υπάρχει προτεινόμενο σχέδιο για το πώς θα μπορούσαμε να κάνουμε κάτι τέτοιο και να επιβιώσουμε. Το OpenAI δηλώνεται ανοιχτά
πρόθεση
είναι να κάνουμε κάποια μελλοντική τεχνητή νοημοσύνη να κάνει την εργασία μας για την ευθυγράμμιση AI. Μόνο που το ακούω
αυτό είναι το σχέδιο
θα έπρεπε να είναι αρκετό για να πανικοβληθεί κάθε λογικό άτομο. Το άλλο κορυφαίο εργαστήριο τεχνητής νοημοσύνης, το DeepMind, δεν έχει κανένα σχέδιο».
Ενώ ο Yudkowsky υποστηρίζει την προσέγγιση του doomerist όταν πρόκειται για την τεχνητή νοημοσύνη, το OpenAI ηγετικό στέλεχος έχει τονίσει το ευρύ φάσμα διαφορετικών πεποιθήσεων σχετικά με τον τρόπο πλοήγησης στην τεχνολογία που είναι πιθανώς μια υπαρξιακή απειλή.
Ενεργώντας ως προσωρινός Διευθύνων Σύμβουλος του OpenAI, ο Shear – τώρα ένας από τους πιο ισχυρούς ανθρώπους στον κόσμο, και όχι ένας οπαδός που αναζητά κουίντιτς – δημοσιεύει μιμίδια για τις διάφορες φατρίες στη συζήτηση για την τεχνητή νοημοσύνη.
Υπάρχουν οι τεχνοαισιόδοξοι, που υποστηρίζουν την ανάπτυξη της τεχνολογίας πάση θυσία, γιατί πιστεύουν ότι τυχόν προβλήματα που προκαλούνται από αυτή τη νοοτροπία «αναπτύσσομαι με κάθε κόστος» θα λυθούν από την ίδια την τεχνολογία. Έπειτα, υπάρχουν οι αποτελεσματικοί επιταχυντές (e/acc) που φαίνεται να μοιάζει με τεχνο-αισιοδοξία, αλλά με περισσότερη γλώσσα για το πώς η ανάπτυξη με κάθε κόστος είναι ο μόνος δρόμος προς τα εμπρός, επειδή το λέει ο δεύτερος νόμος της θερμοδυναμικής. Οι ασφαλιστές (ή «decels») υποστηρίζουν την ανάπτυξη της τεχνολογίας, αλλά μόνο με τρόπο που είναι ρυθμισμένος και ασφαλής (εν τω μεταξύ, στο «Techno-Optimist Manifesto», ο επιχειρηματίας Marc Andreessen καταγγέλλει την «εμπιστοσύνη και ασφάλεια» και «τεχνολογική ηθική “ως εχθρός του). Και μετά, υπάρχουν οι καταδικαστές, που πιστεύουν ότι όταν η τεχνητή νοημοσύνη μας ξεγελάσει, θα μας σκοτώσει όλους.
Ο Yudkowsky είναι ηγέτης μεταξύ των καταστροφών και είναι επίσης κάποιος που πέρασε τις τελευταίες δεκαετίες τρέχοντας στους ίδιους κύκλους με αυτό που φαίνεται σαν το μισό διοικητικό συμβούλιο του OpenAI. Μια δημοφιλής θεωρία σχετικά με την εκδίωξη του Άλτμαν είναι ότι το διοικητικό συμβούλιο ήθελε να διορίσει κάποιον που ευθυγραμμίζεται περισσότερο με τις τιμές «decel» του. Λοιπόν, μπείτε στον Shear, ο οποίος γνωρίζουμε ότι εμπνέεται από τον Yudkowsky και επίσης θεωρεί τον εαυτό του α
καταστροφέας
-slash-safetyist.
Ακόμα δεν ξέρουμε τι συμβαίνει στο OpenAI και η ιστορία φαίνεται να αλλάζει περίπου μία φορά κάθε δέκα δευτερόλεπτα. Προς το παρόν, οι τεχνολογικοί κύκλοι στα μέσα κοινωνικής δικτύωσης συνεχίζουν να μάχονται για την ιδεολογία decel εναντίον e/acc, χρησιμοποιώντας το φόντο του χάους OpenAI για να διατυπώσουν τα επιχειρήματά τους. Και μέσα σε όλα αυτά, δεν μπορώ παρά να το βρίσκω συναρπαστικό ότι, αν το στραβοκοιτάζεις, όλα αυτά ανάγονται σε έναν πραγματικά κουραστικό φαν του Χάρι Πότερ.
VIA:
techcrunch.com
