Ο επικεφαλής εμπιστοσύνης και ασφάλειας του OpenAI παραιτείται καθώς οι προγραμματιστές δεσμεύονται να ξοδέψουν περισσότερο χρόνο για τη διόρθωση του ChatGPT

Ο δημιουργός


περνάει από μια μικρή ανατροπή. Η εταιρεία προσθέτει περισσότερες δυνατότητες που θα βοηθήσουν το

να θυμάται τις οδηγίες, αν και οι προγραμματιστές θα αφιερώσουν επίσης πολύ περισσότερο χρόνο για να βεβαιωθούν ότι η τρέχουσα έκδοση του πολύτιμου γλωσσικού μοντέλου της εταιρείας λειτουργεί όπως προβλέπεται. Αλλά είναι ένα βήμα μπροστά και ένα βήμα πίσω καθώς η εταιρεία χάνει το κεφάλι της εμπιστοσύνης και της ασφάλειας.

Την Πέμπτη, το OpenAI είπε ότι οι χρήστες Plus που πληρώνουν για το ChatGPT μπορούν να προσθέσουν «προσαρμοσμένες οδηγίες» στο chatbot. Οι νέες οδηγίες ουσιαστικά επιτρέπουν στους χρήστες να λαμβάνουν μια πιο συνεπή απάντηση από το bot. Σύμφωνα με τα στοιχεία της εταιρείας


ενημερωτικό δελτίο


, οι χρήστες μπορούν απλώς να προσθέσουν αυτές τις οδηγίες σε ένα ειδικό πεδίο που βρίσκεται κάτω από το όνομα του λογαριασμού τους. Οι οδηγίες θα μπορούσαν να περιλαμβάνουν τον εξαναγκασμό του chatbot να ανταποκρίνεται πιο επίσημα ή κάτω από έναν καθορισμένο αριθμό λέξεων. Οι οδηγίες μπορούν ακόμη και να λένε στο ChatGPT να “έχει απόψεις για θέματα ή να παραμείνει ουδέτερο”.

Το πώς θα πρέπει να εμφανίζεται η «άποψη» της τεχνητής νοημοσύνης είναι ένα συνεχές θέμα συζήτησης στους κύκλους της τεχνητής νοημοσύνης. Δυστυχώς, το ChatGPT θα χρειαστεί να βρει κάποιον άλλο για να ηγηθεί σε αυτές τις σκέψεις. Ο επικεφαλής εμπιστοσύνης και ασφάλειας του OpenAI, Dave Willner, έγραψε στο α


Ανάρτηση στο LinkedIn


αργά την Πέμπτη ότι θα μεταφερόταν σε «συμβουλευτικό ρόλο» στην εταιρεία. Ανέφερε τις συγκρούσεις του έργου με τη ζωή του στο σπίτι και τη φροντίδα των παιδιών του, ιδιαίτερα καθώς «το OpenAI περνά μια φάση υψηλής έντασης στην ανάπτυξή του».

Σε μια δήλωση ηλεκτρονικού ταχυδρομείου στο Gizmodo, το OpenAI είπε:



Ευχαριστούμε τον Dave για την πολύτιμη συνεισφορά του στο OpenAI. Το έργο του ήταν θεμελιώδες για τη λειτουργία της δέσμευσής μας για την ασφαλή και υπεύθυνη χρήση της τεχνολογίας μας και άνοιξε το δρόμο για μελλοντική πρόοδο σε αυτόν τον τομέα. Η Mira Murati θα διευθύνει άμεσα την ομάδα σε προσωρινή βάση και ο Dave θα συνεχίσει να συμβουλεύει μέχρι το τέλος του έτους. Αναζητούμε έναν οδηγό με τεχνικά προσόντα για να προωθήσουμε την αποστολή μας, εστιάζοντας στον σχεδιασμό, την ανάπτυξη και την εφαρμογή συστημάτων που διασφαλίζουν την ασφαλή χρήση και την κλιμακούμενη ανάπτυξη της τεχνολογίας μας.

Είναι μια αρκετά σημαντική θέση για την καλά ελεγμένη εταιρεία σχετικά με το εξαιρετικά δημοφιλές chatbot της. ο

Η Ομοσπονδιακή Επιτροπή Εμπορίου ζήτησε πρόσφατα πολλά έγγραφα από το OpenAI

σχετικά με τις διασφαλίσεις της AI. Όλα αυτά ενώ είναι ο Διευθύνων Σύμβουλος της εταιρείας Sam Altman

προσπαθώντας να τοποθετηθεί ως ηγέτης σκέψης στη ρύθμιση της τεχνητής νοημοσύνης

.

Τώρα, το OpenAI πρόκειται να ξοδέψει πολύ περισσότερο χρόνο για να βελτιώσει τα τρέχοντα μοντέλα AI, αντί να προχωρήσει στο επόμενο μεγάλο πράγμα. Την Πέμπτη η εταιρεία


ανακοινώθηκε


θα επεκτείνει την υποστήριξη για τα μοντέλα γλωσσών GPT-3.5 και

στο API του τουλάχιστον έως τις 13 Ιουνίου του επόμενου έτους. Τα νέα ήρθαν μόλις μια ημέρα αφότου μια ομάδα ερευνητών του Stanford και του UC Berkeley δημοσίευσαν μια μελέτη που δείχνει

Το ChatGPT έχει χειροτερέψει σημαντικά σε ορισμένες εργασίες όπως τα μαθηματικά και η κωδικοποίηση

σε σύγκριση με παλαιότερες εκδόσεις.

Αν και κάποιοι συνάδελφοι ακαδημαϊκοί


ερωτώμενος


Ορισμένα από τα ευρήματα της εφημερίδας, η μελέτη έβαλε εμπόδιο


αξιώσεις


από στελέχη του OpenAI ότι «δεν έχουμε κάνει το GPT-4 πιο χαζό». Ορισμένοι προγραμματιστές αμφισβήτησαν εάν μοντέλα γλώσσας όπως το GPT-4 θα μπορούσαν να είναι χρήσιμα για τις επιχειρήσεις, εάν ακόμη και μικρές αλλαγές θα μπορούσαν να ανατρέψουν τις δυνατότητες του μοντέλου. Το OpenAI λέει τώρα ότι θα προσπαθήσει να δώσει σε περισσότερους προγραμματιστές μια ιδέα για τις αλλαγές που κάνουν στο μοντέλο. Ωστόσο, είναι απίθανο το OpenAI να προσφέρει τακτικούς χρήστες

περισσότερες ενδείξεις για το τι περιέχεται

μέσα τους

μάλλον αδιαφανές μεγάλο γλωσσικό μοντέλο

.

“Ενώ η πλειονότητα των μετρήσεων έχει βελτιωθεί, μπορεί να υπάρχουν ορισμένες εργασίες όπου η απόδοση χειροτερεύει”, έγραψε η εταιρεία στην ενημερωμένη ανάρτησή της στο blog. «Κατανοούμε ότι οι αναβαθμίσεις μοντέλων και οι αλλαγές συμπεριφοράς μπορεί να διαταράξουν τις εφαρμογές σας. Εργαζόμαστε για τρόπους για να δώσουμε στους προγραμματιστές μεγαλύτερη σταθερότητα και ορατότητα στον τρόπο με τον οποίο κυκλοφορούμε και καταργούμε μοντέλα».

Μέρος αυτών των βελτιώσεων έχει επικεντρωθεί στην «πραγματική ακρίβεια και συμπεριφορά άρνησης», κάτι που σημειώθηκε στην έκθεση των ερευνητών ότι άλλαξε σημαντικά τους λίγους μήνες από την κυκλοφορία του GPT-4. Οι ερευνητές σημείωσαν ότι το GPT-4 εξακολουθεί να ανταποκρίνεται σε «επιβλαβείς» προτροπές που θα μπορούσαν να περιλαμβάνουν μισογυνισμό ή οδηγίες για τη διάπραξη εγκλήματος στο 5% των περιπτώσεων. Είναι το είδος του θέματος στο οποίο θα πρέπει να επικεντρωθεί ένας επικεφαλής εμπιστοσύνης και ασφάλειας—αν το OpenAI μπορεί να βρει ένα νέο για να κολλήσει.


gizmodo.com



Μπορεί επίσης να σας αρέσει


Αφήστε ένα σχόλιο στο άρθρο…



Ακύρωση απάντησης

Η διεύθυνση email σας δεν θα δημοσιευθεί.