Ο Σαμ Άλτμαν πουλά υπερέξυπνη ηλιοφάνεια καθώς οι διαδηλωτές ζητούν παύση του AGI
Related Posts
Η ουρά για να δει τον Διευθύνοντα Σύμβουλο του OpenAI Sam Altman να μιλάει στο University College του Λονδίνου την Τετάρτη απλώθηκε σε εκατοντάδες βαθιά στο δρόμο. Όσοι περίμεναν κουτσομπολεύανε στον ήλιο για την εταιρεία και την εμπειρία τους χρησιμοποιώντας το ChatGPT, ενώ μια χούφτα διαδηλωτών έδωσε μια αυστηρή προειδοποίηση μπροστά από τις πόρτες εισόδου: Το OpenAI και εταιρείες όπως αυτό πρέπει να σταματήσουν να αναπτύσσουν προηγμένα συστήματα AI προτού προλάβουν να βλάψουν ανθρωπότητα.
«Κοιτάξτε, ίσως πουλάει ένα κράξιμο. Σίγουρα ελπίζω να είναι», είπε για τον Άλτμαν ένας από τους διαδηλωτές, ο Γκίντεον Φούτερμαν, φοιτητής στο Πανεπιστήμιο της Οξφόρδης που σπουδάζει ηλιακή γεωμηχανική και υπαρξιακό ρίσκο. «Αλλά σε αυτή την περίπτωση, διαφημίζει τα συστήματα με αρκετά
γνωστός
βλάπτει. Μάλλον θα έπρεπε να τους σταματήσουμε ούτως ή άλλως. Και αν έχει δίκιο και κατασκευάζει συστήματα που είναι γενικά έξυπνα, τότε οι κίνδυνοι είναι πολύ, πολύ, πολύ μεγαλύτεροι».
Δύο μέλη της μικρής ομάδας διαδηλωτών ζητούν από το OpenAI να σταματήσει να αναπτύσσει το AGI — ή το υπερέξυπνο AI.
Εικόνα: The Verge
Όταν, όμως, ο Άλτμαν ανέβηκε στη σκηνή μέσα, έτυχε διάχυτης υποδοχής. Ο Διευθύνων Σύμβουλος της OpenAI βρίσκεται αυτή τη στιγμή σε μια παγκόσμια περιοδεία μετά την πρόσφατη (και εξίσου ευγενική) ακρόαση στη Γερουσία στις ΗΠΑ την περασμένη εβδομάδα. Μέχρι στιγμής, έχει συναντηθεί με τον Γάλλο Πρόεδρο Εμανουέλ Μακρόν, τον Πολωνό πρωθυπουργό Ματέους Μοραβιέτσκι και τον Ισπανό πρωθυπουργό Πέδρο Σάντσεθ. Ο σκοπός φαίνεται διπλός: ηρεμήστε τους φόβους μετά την έκρηξη του ενδιαφέροντος για την τεχνητή νοημοσύνη που προκλήθηκε από το ChatGPT και προλάβετε τις συζητήσεις σχετικά με τη ρύθμιση της τεχνητής νοημοσύνης.
Στο Λονδίνο, ο Άλτμαν επανέλαβε γνωστά σημεία συζήτησης, σημειώνοντας ότι οι άνθρωποι έχουν δίκιο να ανησυχούν για τις επιπτώσεις της τεχνητής νοημοσύνης, αλλά ότι τα πιθανά οφέλη της, κατά τη γνώμη του, είναι πολύ μεγαλύτερα. Και πάλι, χαιρέτισε την προοπτική ρύθμισης — αλλά μόνο το σωστό είδος. Είπε ότι ήθελε να δει «κάτι μεταξύ της παραδοσιακής ευρωπαϊκής προσέγγισης και της παραδοσιακής προσέγγισης των ΗΠΑ». Δηλαδή λίγο ρύθμιση αλλά όχι υπερβολική. Τόνισε ότι πάρα πολλοί κανόνες θα μπορούσαν να βλάψουν τις μικρότερες εταιρείες και το κίνημα ανοιχτού κώδικα.
«Θα ήθελα να βεβαιωθώ ότι το αντιμετωπίζουμε αυτό τουλάχιστον τόσο σοβαρά όσο αντιμετωπίζουμε, ας πούμε, το πυρηνικό υλικό».
«Από την άλλη πλευρά», είπε, «νομίζω ότι οι περισσότεροι άνθρωποι θα συμφωνούσαν ότι αν κάποιος σπάσει τον κώδικα και δημιουργήσει μια υπερευφυΐα – όπως θέλετε να το ορίσετε – [then] Ορισμένοι παγκόσμιοι κανόνες για αυτό είναι κατάλληλοι… Θα ήθελα να βεβαιωθώ ότι το αντιμετωπίζουμε αυτό τουλάχιστον τόσο σοβαρά όσο αντιμετωπίζουμε, ας πούμε, το πυρηνικό υλικό. για τα συστήματα μεγάλης κλίμακας που
θα μπορούσε
γεννήσει την υπερευφυΐα».
Σύμφωνα με τους επικριτές του OpenAI, αυτή η συζήτηση για τη ρύθμιση της υπερνοημοσύνης, αλλιώς γνωστή ως τεχνητή γενική νοημοσύνη, ή AGI, είναι μια ρητορική προσποίηση – ένας τρόπος για τον Άλτμαν να τραβήξει την προσοχή από τις τρέχουσες βλάβες των συστημάτων AI και να κρατήσει τους νομοθέτες και το κοινό αποσπώντας την προσοχή της επιστήμης. -σενάρια fi.
Άνθρωποι όπως ο Altman «θέτουν την ευθύνη στο μέλλον», είπε η Sarah Myers West, διευθύνουσα σύμβουλος του ινστιτούτου AI Now.
Το χείλος
Την προηγούμενη εβδομάδα. Αντίθετα, λέει ο West, θα πρέπει να μιλάμε για τρέχουσες γνωστές απειλές που δημιουργούνται από συστήματα τεχνητής νοημοσύνης – από εσφαλμένη προγνωστική αστυνόμευση έως φυλετικά προκατειλημμένη αναγνώριση προσώπου έως τη διάδοση παραπληροφόρησης.
Ο Άλτμαν δεν στάθηκε πολύ στις τρέχουσες βλάβες, αλλά ασχολήθηκε με το θέμα της παραπληροφόρησης σε ένα σημείο κατά τη διάρκεια, λέγοντας ότι ανησυχούσε ιδιαίτερα για τη «διαδραστική, εξατομικευμένη, πειστική ικανότητα» των συστημάτων AI όταν πρόκειται για τη διάδοση παραπληροφόρησης. Ο συνεντευκτής του, ο συγγραφέας Azeem Azhar, πρότεινε ότι ένα τέτοιο σενάριο μπορεί να περιλαμβάνει ένα σύστημα AI που καλεί κάποιον χρησιμοποιώντας μια τεχνητή φωνή και πείθει τον παραλήπτη για κάποιο άγνωστο τέλος. Είπε ο Altman: «Αυτό νομίζω ότι θα ήταν μια πρόκληση και υπάρχουν πολλά να κάνουμε εκεί».
Ωστόσο, είπε, είναι αισιόδοξος για το μέλλον. Εξαιρετικά ελπιδοφόρα. Ο Άλτμαν λέει ότι πιστεύει ότι ακόμη και τα τρέχοντα εργαλεία τεχνητής νοημοσύνης θα μειώσουν την ανισότητα στον κόσμο και ότι θα υπάρξουν «πολύ περισσότερες θέσεις εργασίας στην άλλη πλευρά αυτής της τεχνολογικής επανάστασης».
«Αυτή η τεχνολογία θα ανυψώσει όλο τον κόσμο».
«Το βασικό μου μοντέλο για τον κόσμο είναι ότι το κόστος της νοημοσύνης και το κόστος της ενέργειας είναι οι δύο περιορισμένες εισροές, ένα είδος από τα δύο περιοριστικά αντιδραστήρια του κόσμου. Και αν μπορείτε να τα κάνετε δραματικά φθηνότερα, δραματικά πιο προσιτά, αυτό βοηθάει περισσότερο τους φτωχούς παρά τους πλούσιους, ειλικρινά», είπε. «Αυτή η τεχνολογία θα ανυψώσει όλο τον κόσμο».
Ήταν επίσης αισιόδοξος για την ικανότητα των επιστημόνων να διατηρούν υπό έλεγχο όλο και πιο ισχυρά συστήματα τεχνητής νοημοσύνης μέσω της «ευθυγράμμισης». (Η ευθυγράμμιση είναι ένα ευρύ θέμα της έρευνας της τεχνητής νοημοσύνης που μπορεί να περιγραφεί απλώς ως “να κάνουμε το λογισμικό να κάνει αυτό που θέλουμε και όχι αυτό που δεν κάνουμε.”)
“Έχουμε πολλές ιδέες που έχουμε δημοσιεύσει σχετικά με το πώς πιστεύουμε ότι λειτουργεί η ευθυγράμμιση των υπερευφυών συστημάτων, αλλά πιστεύω ότι αυτό είναι ένα τεχνικά επιλύσιμο πρόβλημα”, δήλωσε ο Altman. «Και νιώθω πιο σίγουρος για αυτή την απάντηση τώρα από ό,τι πριν από μερικά χρόνια. Υπάρχουν μονοπάτια που πιστεύω ότι δεν θα ήταν πολύ καλά και ελπίζω να τα αποφύγουμε. Αλλά ειλικρινά, είμαι πολύ χαρούμενος για την τροχιά που ακολουθούν τα πράγματα αυτή τη στιγμή».
Ένα φυλλάδιο που μοίρασαν οι διαδηλωτές στην ομιλία του Άλτμαν.
Εικόνα: The Verge
Έξω από την ομιλία, όμως, οι διαδηλωτές δεν πείστηκαν. Ο Άλιστερ Στιούαρτ, φοιτητής μεταπτυχιακού στο UCL που σπουδάζει πολιτικές επιστήμες και ηθική, είπε
Το χείλος
ήθελε να δει «κάποιο είδος παύσης ή μορατόριουμ στα προηγμένα συστήματα» – την ίδια προσέγγιση που υποστήριξε μια πρόσφατη ανοιχτή επιστολή που υπογράφηκε από ερευνητές τεχνητής νοημοσύνης και εξέχουσες προσωπικότητες της τεχνολογίας όπως ο Έλον Μασκ. Ο Stewart είπε ότι δεν πίστευε απαραίτητα ότι το όραμα του Altman για ένα ευημερούν μέλλον με τεχνητή νοημοσύνη ήταν λάθος, αλλά ότι υπήρχε «πολύ μεγάλη αβεβαιότητα» για να αφήσουμε τα πράγματα στην τύχη.
Μπορεί ο Άλτμαν να πείσει αυτή τη φατρία; Ο Στιούαρτ λέει ότι ο Διευθύνων Σύμβουλος του OpenAI βγήκε για να μιλήσει στους διαδηλωτές μετά την παρουσία του στη σκηνή, αλλά δεν κατάφερε να αλλάξει γνώμη. Λέει ότι συζήτησαν για ένα λεπτό περίπου για την προσέγγιση του OpenAI για την ασφάλεια, η οποία περιλαμβάνει την ταυτόχρονη ανάπτυξη των δυνατοτήτων των συστημάτων AI μαζί με τα προστατευτικά κιγκλιδώματα.
«Έφυγα από αυτή τη συζήτηση λίγο πιο ανήσυχος από πριν», είπε ο Στιούαρτ. «Δεν ξέρω τι πληροφορίες έχει που τον κάνουν να πιστεύει ότι θα λειτουργήσει».

