Στο The Heart of Altman’s OpenAI Feud Was A Research Paper
Αυτή δεν είναι επενδυτική συμβουλή. Ο συγγραφέας δεν έχει θέση σε καμία από τις μετοχές που αναφέρονται. Το Wccftech.com έχει πολιτική
αποκάλυψη
ς και δεοντολογίας.
Μετά από ένα αξιοσημείωτο Σαββατοκύριακο στη Silicon Valley που είδε την τελευταία της καινοτομία, την τεχνητή νοημοσύνη, να βρίσκεται στο νεκρό σημείο ανάμεσα στις τυπικές εταιρικές πολιτικές της αίθουσας συνεδριάσεων, ο πρώην διευθύνων σύμβουλος της
OpenAI
, Sam Altman, επέστρεψε στην εταιρεία του θριαμβευτικά. Η τριβή του Altman με το διοικητικό συμβούλιο του OpenAI έχει προκαλέσει πολλή συζήτηση στα κοινωνικά και παραδοσιακά μέσα, με τις διαφωνίες που πιστεύεται ότι προέρχονται από το χάσμα μεταξύ του OpenAI και του κερδοσκοπικού/μη κερδοσκοπικού χαρακτήρα της εταιρείας χαρτοφυλακίου. Ωστόσο, μια κερδοσκοπική προσέγγιση μπορεί να μην ήταν ο μόνος λόγος για τη διαίρεση, καθώς μια νέα αναφορά από τους New York Times μοιράζεται ότι μια βασική πηγή τριβής ήταν μια ερευνητική
εργασία
που γράφτηκε από το μέλος του διοικητικού συμβουλίου Helen Toner.
Το ερευνητικό έγγραφο At Heart Of Altman’s Ouster χαρακτήρισε την προσέγγιση «σηματοδότησης» του OpenAI ως ανεπαρκή
Η κ. Toner είναι διευθύντρια στο Κέντρο Ασφάλειας και Αναδυόμενης Τεχνολογίας του Πανεπιστημίου Τζορτζτάουν και τον Οκτώβριο, έγραψε μια μελέτη περίπτωσης που κάλυψε τον τρόπο με τον οποίο οι κυβερνήσεις και οι εταιρείες θα μπορούσαν να δομήσουν την επικοινωνία τους για να αποφύγουν την παρερμηνεία από άλλους. ο
χαρτί
από κοινού με άλλους που σχετίζονται με το Georgetown, όρισε εργαλεία επικοινωνίας που ονομάζονται «σήματα» στα οποία θα μπορούσαν να βασιστούν οι διαστημικοί παράγοντες της εθνικής ασφάλειας και της τεχνητής νοημοσύνης για να διευκρινίσουν τις προθέσεις τους.
Τα τέσσερα σήματα στο χαρτί είναι δέσιμο των χεριών, βυθισμένο κόστος, κόστος δόσεων και μειωμένο κόστος. Αυτές οι προσεγγίσεις ποικίλλουν από το δέσιμο των χεριών, το οποίο περιορίζει μια εταιρεία από πολιτική ή άλλες ανακοινώσεις από τις οποίες θα ήταν δύσκολο να αποχωρήσει, έως το κόστος δόσεων με υψηλότερο αρχικό κόστος (όπως δαπανηρές δεσμεύσεις συμμόρφωσης) που μειώνονται με την πάροδο του χρόνου καθώς προκύπτουν οφέλη.
Σε αυτό το μέτωπο, η εργασία της κας Toner επικεντρώθηκε ειδικά στις ενέργειες του OpenAI γύρω από την κυκλοφορία του μοντέλου GPT-4. Το OpenAI ανακοίνωσε το GPT-4 τον Μάρτιο του 2023 και σύμφωνα με τους συγγραφείς της εργασίας, ενώ το ίδιο το μοντέλο ήταν ένα αξιοσημείωτο τεχνολογικό επίτευγμα, η συνάφειά του με τη σηματοδότηση προήλθε μέσω των συμπληρωματικών εγγράφων του.
Τεχνητή νοημοσύνη και δαπανηρά σήματα – Andrew Imbrie Owen Daniels Helen Toner (Κέντρο Ασφάλειας και Αναδυόμενης Τεχνολογίας Πανεπιστήμιο Georgetown)
Αυτά τα έγγραφα περιελάμβαναν μια κάρτα συστήματος που εξηγούσε τους κινδύνους με το GPT-4 και πώς το OpenAI τους είχε μετριάσει καθώς έσπευσε να κυκλοφορήσει το πρώτο μοντέλο GPT-4 στην αγορά. Οι συγγραφείς μοιράστηκαν ότι πίστευαν ότι ήταν σχετικά ανεπιτυχές ως εργαλείο επικοινωνίας για τη δέσμευση του OpenAI στην ασφάλεια.
Η εφημερίδα εξηγεί:
Ενώ η ίδια η κάρτα συστήματος έτυχε θετικής υποδοχής μεταξύ των ερευνητών που ενδιαφέρονται να κατανοήσουν το προφίλ κινδύνου του GPT-4, φαίνεται να ήταν λιγότερο επιτυχημένη ως ένα ευρύτερο σημάδι της δέσμευσης του OpenAI για την ασφάλεια. Ο λόγος για αυτό το ακούσιο αποτέλεσμα είναι ότι η εταιρεία προχώρησε σε άλλες ενέργειες που επισκίασαν την εισαγωγή της κάρτας συστήματος: κυρίως, την υπερπαραγωγική κυκλοφορία του ChatGPT τέσσερις μήνες νωρίτερα.
Στη συνέχεια, οι ερευνητές συνέκριναν την προσέγγιση του OpenAI με αυτή που χρησιμοποιούσε ο ανταγωνιστής του, η
Anthropic
, και η πλατφόρμα Claude. Επαίνεσαν την απόφαση του Anthropic να καθυστερήσει την εκτόξευση του Claude για να σταματήσει το “advanc[ing] ο ρυθμός προόδου των δυνατοτήτων τεχνητής νοημοσύνης» και όρισε αυτή την απόφαση ως «δαπανηρή ένδειξη περιορισμού».
Όπως το έθεσαν:
Καθυστερώντας την κυκλοφορία του Claude έως ότου μια άλλη εταιρεία κυκλοφόρησε ένα παρόμοιο ικανό προϊόν, η Anthropic έδειχνε την προθυμία της να αποφύγει ακριβώς το είδος της ξέφρενης κοπής που φαινόταν να υποκινεί η κυκλοφορία του ChatGPT. Η Anthropic πέτυχε αυτόν τον στόχο αξιοποιώντας το κόστος δόσεων ή πάγιο κόστος που δεν μπορεί να αντισταθμιστεί με την πάροδο του χρόνου. Στο πλαίσιο αυτής της μελέτης, η Anthropic ενίσχυσε την αξιοπιστία των δεσμεύσεών της για την ασφάλεια της τεχνητής νοημοσύνης, συγκρατώντας το μοντέλο της από την πρόωρη κυκλοφορία και απορροφώντας πιθανές μελλοντικές απώλειες εσόδων. Το κίνητρο σε αυτή την περίπτωση δεν ήταν να ανακτηθούν αυτές οι απώλειες κερδίζοντας ένα ευρύτερο μερίδιο αγοράς, αλλά μάλλον να προωθηθούν οι κανόνες του κλάδου και να συμβάλουν στις κοινές προσδοκίες σχετικά με την υπεύθυνη ανάπτυξη και ανάπτυξη τεχνητής νοημοσύνης.
Οι NYT
κανω ΑΝΑΦΟΡΑ
μοιράζεται ότι ο Άλτμαν δεν ήταν ευχαριστημένος με τον Χολτ μετά τη δημοσίευση της εφημερίδας και μοιράστηκε τις ανησυχίες του με τους υπαλλήλους του OpenAI μέσω email. Επιπλέον, μια αρκετά ενδιαφέρουσα
εξέλιξη
έλαβε χώρα αμέσως μετά, με τον επικεφαλής έρευνας του OpenAI, Ilya Sutsekver, να συζητά αρχικά αν θα εκδιώξει τον Toner από το διοικητικό συμβούλιο. Ωστόσο, παραδόξως, στη συνέχεια επέλεξε να κινηθεί εναντίον του Άλτμαν – μια απόφαση για την οποία θα μετάνιωνε μέσα σε λίγες μέρες.
VIA:
wccftech.com


