Ο επικεφαλής εμπιστοσύνης και ασφάλειας του OpenAI, Dave Willner, παραιτείται
Μια σημαντική αλλαγή προσωπικού βρίσκεται σε εξέλιξη
OpenAI
, ο τεχνητής νοημοσύνης που έχει σχεδόν μόνος του εισαγάγει την έννοια της γενετικής τεχνητής νοημοσύνης στον παγκόσμιο δημόσιο διάλογο με την κυκλοφορία του
ChatGPT
. Ο Dave Willner, ένας βετεράνος του κλάδου που ήταν ο επικεφαλής εμπιστοσύνης και ασφάλειας της startup, ανακοίνωσε στο α
ανάρτηση στο LinkedIn
χθες το βράδυ που άφησε τη δουλειά και πέρασε σε συμβουλευτικό ρόλο. Σκοπεύει να περνά περισσότερο χρόνο με τη νεαρή οικογένειά του, είπε. Ήταν στον ρόλο για ενάμιση χρόνο.
Η αποχώρησή του έρχεται σε μια κρίσιμη στιγμή για τον κόσμο της AI.
Συντελεστές εικόνας:
LinkedIn
(ανοίγει σε νέο παράθυρο)
κάτω από ένα
CC BY 2.0
(ανοίγει σε νέο παράθυρο)
άδεια.
Μαζί με τον ενθουσιασμό για τις δυνατότητες των πλατφορμών τεχνητής νοημοσύνης που δημιουργούνται – οι οποίες βασίζονται σε μεγάλα γλωσσικά μοντέλα και παράγουν ελεύθερα κείμενο, εικόνες, μουσική και πολλά άλλα βασισμένα σε απλές προτροπές από τους χρήστες – υπάρχει μια αυξανόμενη λίστα ερωτήσεων. Πώς να ρυθμίσετε καλύτερα τη δραστηριότητα και τις εταιρείες σε αυτόν τον γενναίο νέο κόσμο; Πώς να μετριαστεί καλύτερα τυχόν επιβλαβείς επιπτώσεις σε ένα ολόκληρο φάσμα θεμάτων; Η εμπιστοσύνη και η ασφάλεια είναι θεμελιώδη μέρη αυτών των συνομιλιών.
Μόλις σήμερα, ο πρόεδρος του OpenAI, Γκρεγκ Μπρόκμαν, πρόκειται να εμφανιστεί στον Λευκό Οίκο μαζί με στελέχη των Anthropic,
Google
, Inflection,
Microsoft
, Meta και
Amazon
για να υποστηρίξει τις εθελοντικές δεσμεύσεις για την επιδίωξη κοινών στόχων ασφάλειας και διαφάνειας πριν από ένα Εκτελεστικό Διάταγμα AI που είναι στα σκαριά. Αυτό έρχεται στον απόηχο του μεγάλου θορύβου στην Ευρώπη που σχετίζεται με τη ρύθμιση της τεχνητής νοημοσύνης, καθώς και
μεταβαλλόμενα συναισθήματα
αναμεταξύ
κάποιοι άλλοι
.
Το σημαντικό από όλα αυτά δεν χάνεται στο OpenAI, το οποίο το επιδίωξε
η ίδια θέση
ως ένας συνειδητοποιημένος και υπεύθυνος παίκτης στο γήπεδο.
Ο Willner δεν κάνει καμία αναφορά σε τίποτα από αυτά ειδικά στην ανάρτησή του στο LinkedIn. Αντίθετα, το κρατά σε υψηλό επίπεδο, σημειώνοντας
ότι οι απαιτήσεις της δουλειάς του στο OpenAI μετατράπηκαν σε μια «φάση υψηλής έντασης» μετά την κυκλοφορία του ChatGPT.
«Είμαι περήφανος για όλα όσα έχει καταφέρει η ομάδα μας στον χρόνο μου στο OpenAI, και ενώ η δουλειά μου εκεί ήταν μια από τις πιο cool και ενδιαφέρουσες δουλειές που μπορεί να έχω σήμερα, είχε επίσης αυξηθεί δραματικά ως προς το εύρος και την κλίμακα της από τότε που μπήκα για πρώτη φορά», έγραψε. Ενώ ο ίδιος και η σύζυγός του – η Chariotte Willner, η οποία είναι επίσης ειδική σε θέματα εμπιστοσύνης και ασφάλειας – δεσμεύτηκαν να βάζουν πάντα την οικογένεια σε προτεραιότητα, είπε, «τους μήνες που ακολούθησαν την κυκλοφορία του ChatGPT, δυσκολεύτηκα όλο και περισσότερο να κρατήσω το τέλος της συμφωνίας μου».
Ο Willner ήταν στη θέση του στο OpenAI για μόλις 1,5 χρόνο, αλλά προέρχεται από μια μακρά καριέρα στον τομέα που περιλαμβάνει κορυφαίες ομάδες εμπιστοσύνης και ασφάλειας στο
Facebook
και την Airbnb.
Η δουλειά στο Facebook είναι ιδιαίτερα ενδιαφέρουσα. Εκεί, ήταν ένας πρώιμος υπάλληλος που βοήθησε να διευκρινιστεί η πρώτη θέση κοινοτικών προτύπων της εταιρείας, η οποία εξακολουθεί να χρησιμοποιείται ως βάση της προσέγγισης της εταιρείας σήμερα.
Αυτή ήταν μια πολύ διαμορφωτική περίοδος για την εταιρεία, και αναμφισβήτητα – δεδομένης της επιρροής που είχε το Facebook στον τρόπο με τον οποίο αναπτύχθηκαν τα μέσα κοινωνικής δικτύωσης παγκοσμίως – για το διαδίκτυο και την κοινωνία συνολικά. Μερικά από εκείνα τα χρόνια σημαδεύτηκαν από πολύ ξεκάθαρες θέσεις σχετικά με την ελευθερία του λόγου και από το πώς το Facebook έπρεπε να αντισταθεί στις εκκλήσεις να χαλιναγωγήσει αμφιλεγόμενες ομάδες και αμφιλεγόμενες αναρτήσεις.
Μια τέτοια περίπτωση ήταν μια πολύ μεγάλη διαμάχη, το 2009, που διαδραματίστηκε στο δημόσιο φόρουμ σχετικά με το πώς το Facebook χειριζόταν λογαριασμούς και δημοσιεύσεις από τους Αρνητές του Ολοκαυτώματος. Ορισμένοι υπάλληλοι και εξωτερικοί παρατηρητές θεώρησαν ότι το Facebook είχε καθήκον να λάβει θέση και να απαγορεύσει αυτές τις αναρτήσεις. Άλλοι πίστευαν ότι κάτι τέτοιο έμοιαζε με λογοκρισία και έστελναν λάθος μήνυμα γύρω από τον ελεύθερο λόγο.
Ο Γουίλνερ βρισκόταν στο τελευταίο στρατόπεδο, πιστεύοντας ότι η «ρητορική μίσους» δεν ήταν το ίδιο με την «άμεση βλάβη» και επομένως δεν έπρεπε να μετριάζεται το ίδιο. «Δεν πιστεύω ότι η άρνηση του Ολοκαυτώματος, ως ιδέα είναι [sic] το δικό, αντιπροσωπεύει εγγενώς μια απειλή για την ασφάλεια των άλλων», έγραψε τότε. (Για μια έκρηξη από το παρελθόν του TechCrunch, δείτε την πλήρη ανάρτηση σε αυτό εδώ.)
Εκ των υστέρων, δεδομένου του τρόπου με τον οποίο έχουν γίνει πολλά άλλα, ήταν μια αρκετά κοντόφθαλμη, αφελής θέση. Ωστόσο, φαίνεται ότι τουλάχιστον μερικές από αυτές τις ιδέες εξελίχθηκαν. Μέχρι το 2019, χωρίς πλέον να απασχολείται στο κοινωνικό δίκτυο, ήταν
μιλώντας κατά
πώς η εταιρεία ήθελε να χορηγήσει σε πολιτικούς και δημόσια πρόσωπα ασθενέστερες εξαιρέσεις ελέγχου περιεχομένου.
Αλλά αν η ανάγκη να τεθούν οι σωστές βάσεις στο Facebook ήταν μεγαλύτερη από ό,τι περίμεναν οι άνθρωποι εκείνη την εποχή, αυτό είναι αναμφισβήτητα ακόμη περισσότερο τώρα για το νέο κύμα τεχνολογίας. Σύμφωνα με αυτό
Η ιστορία των New York Times
Πριν από λιγότερο από ένα μήνα, ο Willner είχε προσληφθεί αρχικά στο OpenAI για να το βοηθήσει να καταλάβει πώς να κρατήσει το Dall-E, τη δημιουργία εικόνων της startup, από την κακή χρήση και τη χρήση για πράγματα όπως η δημιουργία γενετικής παιδικής πορνογραφίας με τεχνητή νοημοσύνη.
Αλλά όπως το
πάει ρητό
, το OpenAI (και ο κλάδος) χρειάζεται αυτήν την πολιτική χθες. «Μέσα σε ένα χρόνο, θα φτάσουμε σε μια πολύ προβληματική κατάσταση σε αυτόν τον τομέα», δήλωσε στους NYT ο David Thiel, ο επικεφαλής τεχνολόγος του Stanford Internet Observatory.
Τώρα, χωρίς τον Willner, ποιος θα ηγηθεί της ευθύνης του OpenAI για να το αντιμετωπίσει αυτό;
(Επικοινωνήσαμε με το OpenAI για σχόλια και θα ενημερώσουμε αυτήν την ανάρτηση με τυχόν απαντήσεις.)


