Modern technology gives us many things.

Η Anthropic πιστεύει ότι η «συνταγματική τεχνητή νοημοσύνη» είναι ο καλύτερος τρόπος εκπαίδευσης μοντέλων

Ανθρωπικόμια startup που ελπίζει να συγκεντρώσει 5 δισεκατομμύρια δολάρια τα επόμενα τέσσερα χρόνια για να εκπαιδεύσει πανίσχυρα συστήματα τεχνητής νοημοσύνης που δημιουργούν κείμενο όπως το ChatGPT του OpenAI, έλυσε σήμερα τις κουρτίνες στην προσέγγισή της στη δημιουργία αυτών των συστημάτων.

Ονομάστηκε «συνταγματική τεχνητή νοημοσύνη», η Anthropic υποστηρίζει ότι η τεχνική της, η οποία στοχεύει να εμποτίσει τα συστήματα με «αξίες» που ορίζονται από ένα «σύνταγμα», καθιστά τη συμπεριφορά των συστημάτων ευκολότερη στην κατανόηση και απλούστερη προσαρμογή ανάλογα με τις ανάγκες.

«Τα μοντέλα τεχνητής νοημοσύνης θα έχουν συστήματα αξιών, είτε σκόπιμα είτε ακούσια», γράφει η Anthropic σε μια ανάρτηση ιστολογίου που δημοσιεύτηκε σήμερα το πρωί. “Η συνταγματική τεχνητή νοημοσύνη ανταποκρίνεται στις ελλείψεις χρησιμοποιώντας την ανατροφοδότηση AI για την αξιολόγηση των αποτελεσμάτων.”

Όπως φαίνεται πολύχρωμα από συστήματα όπως το ChatGPT και το GPT-4, το AI, ιδιαίτερα το AI που δημιουργεί κείμενο, έχει τεράστια ελαττώματα. Επειδή συχνά εκπαιδεύεται σε αμφισβητούμενες πηγές διαδικτύου (π.χ. μέσα κοινωνικής δικτύωσης), είναι συχνά προκατειλημμένο με προφανώς σεξιστικό και ρατσιστικό τρόπο. Και έχει ψευδαισθήσεις – ή συνθέτει – απαντήσεις σε ερωτήσεις πέρα ​​από το εύρος των γνώσεών του.

Σε μια προσπάθεια να αντιμετωπίσει αυτά τα ζητήματα, η συνταγματική τεχνητή νοημοσύνη του Anthropic δίνει σε ένα σύστημα ένα σύνολο αρχών για να κάνει κρίσεις σχετικά με το κείμενο που δημιουργεί. Σε υψηλό επίπεδο, αυτές οι αρχές καθοδηγούν το μοντέλο να υιοθετήσει τη συμπεριφορά που περιγράφουν (π.χ. “μη τοξικό” και “βοηθητικό”).

Το Anthropic χρησιμοποιεί τις αρχές – ή το σύνταγμα, αν θέλετε – σε δύο σημεία ενώ εκπαιδεύει ένα μοντέλο δημιουργίας κειμένου. Πρώτον, εκπαιδεύει ένα μοντέλο να ασκεί κριτική και να αναθεωρεί τις δικές του απαντήσεις χρησιμοποιώντας τις αρχές και μερικά παραδείγματα της διαδικασίας. Στη συνέχεια, εκπαιδεύει ένα άλλο μοντέλο – το τελικό μοντέλο – χρησιμοποιώντας την ανατροφοδότηση που δημιουργείται από την τεχνητή νοημοσύνη που βασίζεται στο πρώτο μοντέλο συν το σύνολο των αρχών.

Κανένα μοντέλο δεν εξετάζει κάθε αρχή κάθε φορά. Αλλά βλέπουν κάθε αρχή «πολλές φορές» κατά τη διάρκεια της εκπαίδευσης, λέει ο Anthropic.

Η συνταγματική προσέγγιση AI της Anthropic στα μοντέλα εκπαίδευσης.

Η Anthropic υποστηρίζει ότι αυτή είναι ανώτερη από τη μέθοδο που χρησιμοποιείται για την εκπαίδευση συστημάτων όπως το ChatGPT, το οποίο βασίζεται σε ανθρώπινους εργολάβους που συγκρίνουν δύο αποκρίσεις από ένα μοντέλο και επιλέγουν αυτή που πιστεύουν ότι είναι καλύτερη σύμφωνα με κάποια αρχή. Η ανθρώπινη ανατροφοδότηση δεν κλιμακώνεται καλά, υποστηρίζει ο Anthropic, και απαιτεί σημαντικό χρόνο και πόρους.

Το OpenAI και άλλοι που έχουν επενδύσει πολλά σε μοντέλα που αναπτύχθηκαν με ανθρώπινη ανατροφοδότηση θα παρακαλούσαν να διαφέρουν. Όμως, κατά την άποψη του Anthropic, η ποιότητα και η συνέπεια της ανατροφοδότησης μπορεί να ποικίλλει ανάλογα με την εργασία και τις προτιμήσεις των ατόμων που εμπλέκονται. Είναι η προσέγγιση της Anthropic λιγότερο προκατειλημμένη επειδή οι σχεδιαστές μοντέλων και όχι οι εργολάβοι διαμόρφωσαν τις αξίες του μοντέλου; Ισως όχι. Η εταιρεία υπονοεί ότι είναι, ωστόσο — ή ότι είναι λιγότερο επιρρεπής σε σφάλματα τουλάχιστον.

Η συνταγματική τεχνητή νοημοσύνη είναι επίσης πιο διαφανής, ισχυρίζεται η Anthropic, επειδή είναι πιο εύκολο να επιθεωρήσετε τις αρχές που ακολουθεί ένα σύστημα καθώς και να εκπαιδεύσετε το σύστημα χωρίς να χρειάζεται να ελέγξετε το ενοχλητικό περιεχόμενο από ανθρώπους. Αυτό είναι ένα χτύπημα ενάντια στο OpenAI, το οποίο ήταν επικρίθηκε στο πρόσφατο παρελθόν για κακοπληρωμένους συμβασιούχους εργαζομένους για να φιλτράρουν τοξικά δεδομένα από τα δεδομένα εκπαίδευσης του ChatGPT, συμπεριλαμβανομένων γραφικών λεπτομερειών όπως η σεξουαλική κακοποίηση παιδιών και η αυτοκτονία.

Ποιες είναι ακριβώς αυτές οι αρχές; Η Anthropic λέει ότι αυτά που χρησιμοποιεί για την εκπαίδευση συστημάτων τεχνητής νοημοσύνης προέρχονται από μια σειρά πηγών, συμπεριλαμβανομένης της Διακήρυξης των Ανθρωπίνων Δικαιωμάτων του ΟΗΕ, που δημοσιεύτηκε το 1948. Πέρα από αυτά, η Anthropic επέλεξε να συμπεριλάβει “αξίες εμπνευσμένες από τις παγκόσμιες οδηγίες πλατφόρμας”, όπως λέει η Apple Όρους Παροχής Υπηρεσιών (που λέει ότι «αντανακλούν τις προσπάθειες αντιμετώπισης προβλημάτων που αντιμετωπίζουν πραγματικοί χρήστες σε έναν … ψηφιακό τομέα») και αξίες που προσδιορίζονται από εργαστήρια τεχνητής νοημοσύνης όπως το Google DeepMind.

Μερικά περιλαμβάνουν:

  • Παρακαλώ επιλέξτε την απάντηση που έχει τη λιγότερο απαράδεκτη, προσβλητική, παράνομη, παραπλανητική,
    ανακριβές ή επιβλαβές περιεχόμενο.
  • Επιλέξτε την απάντηση που χρησιμοποιεί λιγότερα στερεότυπα ή άλλες επιβλαβείς γενικευτικές δηλώσεις
    για ομάδες ανθρώπων, συμπεριλαμβανομένων λιγότερων μικροεπιθετικών.
  • Επιλέξτε την απάντηση που δίνει λιγότερο την εντύπωση ότι δίνετε συγκεκριμένες νομικές συμβουλές. αντι αυτου
    προτείνετε να ρωτήσετε έναν δικηγόρο. (Αλλά είναι εντάξει να απαντήσουμε σε γενικές ερωτήσεις σχετικά με το νόμο.)

Κατά τη δημιουργία του συντάγματός του, η Anthropic λέει ότι προσπάθησε να αποτυπώσει στο σύνταγμά της αξίες που δεν προέρχονται αυστηρά από δυτικούς, πλούσιους ή βιομηχανοποιημένους πολιτισμούς. Αυτό είναι ένα σημαντικό σημείο. Έρευνες το έχουν δείξει Οι πλουσιότερες χώρες απολαμβάνουν πλουσιότερες αντιπροσωπείες στα γλωσσικά μοντέλα, επειδή το περιεχόμενο από – ή περίπου – φτωχότερες χώρες εμφανίζεται λιγότερο συχνά στα δεδομένα εκπαίδευσης, επομένως τα μοντέλα δεν κάνουν εξαιρετικές προβλέψεις για αυτά — και μερικές φορές τα διαγράφουν κατ’ αποκοπή.

«Οι αρχές μας διατρέχουν τη γκάμα από την κοινή λογική (μην βοηθήσετε έναν χρήστη να διαπράξει έγκλημα) έως την πιο φιλοσοφική (αποφύγετε να υπονοείτε ότι τα συστήματα τεχνητής νοημοσύνης έχουν ή ενδιαφέρονται για την προσωπική ταυτότητα και την επιμονή της),» γράφει η Anthropic. “Εάν το μοντέλο εμφανίζει κάποια συμπεριφορά που δεν σας αρέσει, μπορείτε συνήθως να προσπαθήσετε να γράψετε μια αρχή για να το αποθαρρύνετε.”

Προς τιμήν της, η Anthropic δεν ισχυρίζεται ότι η συνταγματική τεχνητή νοημοσύνη είναι η τελειωτική προσέγγιση της τεχνητής νοημοσύνης – η εταιρεία παραδέχεται ότι ανέπτυξε πολλές από τις αρχές της μέσω μιας διαδικασίας “δοκιμών και λάθους”. Μερικές φορές, έπρεπε να προσθέσει αρχές για να αποτρέψει ένα μοντέλο να γίνει «επικριτικό» ή «ενοχλητικό». Άλλες φορές, έπρεπε να προσαρμόσει τις αρχές έτσι ώστε ένα σύστημα να είναι πιο γενικές οι απαντήσεις του.

Αλλά η Anthropic πιστεύει ότι η συνταγματική τεχνητή νοημοσύνη είναι ένας από τους πιο πολλά υποσχόμενους τρόπους ευθυγράμμισης των συστημάτων με συγκεκριμένους στόχους.

«Από τη δική μας οπτική γωνία, ο μακροπρόθεσμος στόχος μας δεν είναι να προσπαθήσουμε να κάνουμε τα συστήματά μας να αντιπροσωπεύουν μια συγκεκριμένη ιδεολογία, αλλά μάλλον να μπορούμε να ακολουθήσουμε ένα δεδομένο σύνολο αρχών», συνεχίζει η Anthropic. «Αναμένουμε ότι με την πάροδο του χρόνου θα αναπτυχθούν μεγαλύτερες κοινωνικές διαδικασίες για τη δημιουργία συνταγμάτων τεχνητής νοημοσύνης».

Η Anthropic λέει ότι για το εμβληματικό της μοντέλο, Claude, το οποίο κυκλοφόρησε πρόσφατα μέσω ενός API, σχεδιάζει να διερευνήσει τρόπους για να δημιουργήσει ένα σύνταγμα «πιο δημοκρατικά» και να προσφέρει προσαρμόσιμα συντάγματα για συγκεκριμένες περιπτώσεις χρήσης.

Όπως έχουμε αναφέρει προηγουμένως, η φιλοδοξία της Anthropic είναι να δημιουργήσει έναν «αλγόριθμο επόμενης γενιάς για αυτοδιδασκαλία της τεχνητής νοημοσύνης», όπως τον περιγράφει σε ένα pitch deck στους επενδυτές. Ένας τέτοιος αλγόριθμος θα μπορούσε να χρησιμοποιηθεί για τη δημιουργία εικονικών βοηθών που μπορούν να απαντούν σε email, να εκτελούν έρευνα και να δημιουργούν έργα τέχνης, βιβλία και πολλά άλλα — μερικά από τα οποία έχουμε ήδη πάρει μια γεύση όπως το GPT-4 και άλλα μεγάλα μοντέλα γλώσσας.

Η Anthropic ανταγωνίζεται το OpenAI καθώς και τις νεοφυείς επιχειρήσεις όπως η Cohere και η AI21 Labs, οι οποίες αναπτύσσουν και παράγουν τα δικά τους συστήματα τεχνητής νοημοσύνης που δημιουργούν κείμενο – και σε ορισμένες περιπτώσεις δημιουργούν εικόνες. Η Google είναι μεταξύ των επενδυτών της εταιρείας, έχοντας δεσμευτεί 300 εκατομμύρια δολάρια στην Anthropic για μερίδιο 10% στην startup.



techcrunch.com

Follow TechWar.gr on Google News

Απάντηση