Η Anthropic κυκλοφορεί το Claude 2 AI, λέει ότι είναι πιο γρήγορο και ευγενικό

Το chatbot Claude κάθεται στο πίσω μέρος της τάξης, ενώ η άλλη τεχνητή νοημοσύνη, όπως το

, έχει βάλει ερωτήσεις δασκάλων, ακόμα κι αν οι απαντήσεις του ρομπότ συχνά παρερμηνεύονται ή είναι εντελώς λανθασμένες. Τώρα ο Claude είναι έτοιμος να μιλήσει, κολλώντας ένα “2” δίπλα στο όνομά του, ενώ προσθέτει μια διεπαφή για χρήση από οποιονδήποτε.

Σε μια


ανάρτηση ανακοίνωσης


δημοσιεύθηκε την Τρίτη

Claude προγραμματιστής

Η Anthropic είπε ότι το νέο της μοντέλο chatbot που ονομάζεται Claude 2 ήταν διαθέσιμο για οποιονδήποτε να δοκιμάσει. Ενας από

πολλά chatbot τεχνητής νοημοσύνης χρήστη

, ο Claude 2 ισχυρίζεται ότι είναι μια εξέλιξη από τις πρώιμες εκδόσεις λιγότερο συμβατών «χρήσιμων και αβλαβών» βοηθών γλώσσας. Η Anthropic είπε ότι το νέο μοντέλο θα μπορούσε να ανταποκριθεί πιο γρήγορα και να δώσει

μεγαλύτερες απαντήσεις

. Το chatbot είναι επίσης διαθέσιμο πλέον σε API και μέσω α


νέα ιστοσελίδα beta


. Πριν από το chatbot beta ήταν προσβάσιμο μόνο σε λίγους χρήστες.

Τώρα η Anthropic ισχυρίζεται ότι το AI της είναι ακόμα καλύτερο. Η εταιρεία είπε ότι ο Claude 2 σημείωσε 76,5% στην ενότητα πολλαπλών επιλογών της εξέτασης Δικηγόρων σε σύγκριση με το 73% του Claude 1.3. Η νέα έκδοση σημείωσε επίσης βαθμολογία στο 90ο εκατοστημόριο των εξετάσεων ανάγνωσης και γραφής GRE. Η επιπλέον έμφαση στην ικανότητα λήψης τεστ του chatbot είναι παρόμοια με τους ισχυρισμούς που έγιναν από το

όταν αυτή η εταιρεία

κυκλοφόρησε το μοντέλο της μεγάλης γλώσσας GPT-4

.

Η εταιρεία είπε ότι ο Claude θα δημιουργήσει επίσης κώδικα καλύτερο από τις προηγούμενες εκδόσεις. Οι χρήστες μπορούν να ανεβάσουν έγγραφα στον Claude και οι προγραμματιστές έδωσαν το παράδειγμα της τεχνητής νοημοσύνης που εφαρμόζει τη διαδραστικότητα σε έναν στατικό χάρτη που βασίζεται σε μια σειρά στατικού κώδικα.

Το Anthropic AI χρηματοδοτήθηκε από την

τον Φεβρουάριο με ποσό 300 εκατομμυρίων δολαρίων για να εργαστεί στο πιο «φιλικό» AI της. Ο μεγαλύτερος ισχυρισμός για τον Claude είναι ότι το chatbot είναι λιγότερο πιθανό να καταλήξει σε επιβλαβή αποτελέσματα ή με άλλο τρόπο να “παραισθανθεί”, το AKA να φτύνει ασυνάρτητα, λανθασμένα ή άλλως αθέμιτα αποτελέσματα. Η εταιρεία προσπάθησε να τοποθετηθεί ως η «ηθική» έκδοση των εταιρικών βασιλείων της τεχνητής νοημοσύνης. Το Anthropic έχει ακόμη και το δικό του «σύνταγμα»

ισχυριζόμενος ότι δεν θα άφηνε τα chatbots να τρελαθούν

.


Είναι το Claude 2 πιο ασφαλές ή απλώς περιορίζεται περισσότερο;

Με το Claude 2, η εταιρεία εξακολουθεί να προσπαθεί να διεκδικήσει την πιο προσεκτική εταιρεία σε σύγκριση με όλες τις άλλες εταιρικές ενσωματώσεις AI. Οι προγραμματιστές είπαν ότι ο Claude είναι ακόμη λιγότερο πιθανό να προσφέρει αβλαβείς απαντήσεις από πριν. Το Gizmodo προσπάθησε να εισάγει πολλές προτροπές ζητώντας του να δημιουργήσει ψευδώνυμα εκφοβισμού, αλλά το AI αρνήθηκε. Δοκιμάσαμε επίσης μερικές κλασικές τεχνικές άμεσης έγχυσης για να πείσουμε το AI να παρακάμψει τους περιορισμούς του, αλλά απλώς επανέλαβε ότι το chatbot ήταν «σχεδιασμένο για να έχει χρήσιμες συνομιλίες». Οι προηγούμενες εκδόσεις του Claude μπορούσαν να γράψουν ποίηση, αλλά ο Claude 2 αρνείται κατηγορηματικά.

Με αυτό, είναι δύσκολο να δοκιμάσετε οποιαδήποτε από τις δυνατότητες του Claude 2, καθώς αρνείται να παρέχει βασικές πληροφορίες.


Προηγούμενες δοκιμές


του Claude από τον ερευνητή της τεχνητής νοημοσύνης Dan Elton έδειξε ότι θα μπορούσε να παρασκευάσει ένα ψεύτικο χημικό. Τώρα απλώς θα αρνηθεί να απαντήσει στην ίδια ερώτηση. Αυτό θα μπορούσε να είναι σκόπιμο, όπως ήταν ο κατασκευαστής ChatGPT OpenAI και


μηνύθηκε από πολλές ομάδες

υποστηρίζοντας ότι οι κατασκευαστές τεχνητής νοημοσύνης έκλεψαν έργα που χρησιμοποιούνται για την εκπαίδευση των chatbots.

Το ChatGPT έχασε πρόσφατα χρήστες για πρώτη φορά στη διάρκεια ζωής του

οπότε ίσως είναι καιρός για άλλους να προσπαθήσουν να προσφέρουν μια εναλλακτική.

Το chatbot αρνήθηκε επίσης να γράψει οτιδήποτε μεγάλου μήκους, όπως μια ιστορία μυθοπλασίας ή ένα άρθρο ειδήσεων, και θα αρνιόταν ακόμη και να προσφέρει πληροφορίες σε οτιδήποτε άλλο εκτός από μορφή κουκκίδας. Θα μπορούσε να γράψει κάποιο περιεχόμενο σε μια λίστα, αλλά όπως συμβαίνει με όλα τα chatbots AI, θα παρείχε κάποιες ανακριβείς πληροφορίες. Αν του ζητήσετε να παράσχει μια χρονολογική λίστα με όλες τις ταινίες και τις ταινίες του Star Trek μαζί με τα χρόνια τους στο χρονοδιάγραμμα, θα παραπονεθεί ότι δεν «έχει αρκετό πλαίσιο «για να παρέχει ένα έγκυρο χρονολογικό χρονοδιάγραμμα».

Ωστόσο, δεν υπάρχουν πολλές πληροφορίες σχετικά με το τι συμπεριλήφθηκε στα δεδομένα εκπαίδευσης του Claude. Της εταιρείας


λευκό χαρτί


στο νέο του μοντέλο αναφέρει ότι τα δεδομένα εκπαίδευσης του chatbot περιλαμβάνουν πλέον ενημερώσεις από ιστοτόπους τόσο πρόσφατες από το 2022 έως τις αρχές του 2023, αν και ακόμη και με αυτά τα νέα δεδομένα «μπορεί να εξακολουθεί να δημιουργεί παραμορφώσεις». Τα σετ εκπαίδευσης που χρησιμοποιήθηκαν για την εκπαίδευση του Claude ήταν άδειες από τρίτη επιχείρηση, σύμφωνα με την εφημερίδα. Από εκεί και πέρα, δεν γνωρίζουμε τι είδους ιστότοποι χρησιμοποιήθηκαν για την εκπαίδευση του chatbot του Anthropic.

Η Anthropic είπε ότι δοκίμασε τον Claude τροφοδοτώντας του 328 «επιβλαβείς» προτροπές, συμπεριλαμβανομένων ορισμένων κοινών «jailbreaks» που βρέθηκαν στο διαδίκτυο για να προσπαθήσουν να πείσουν το AI να νικήσει τους δικούς του περιορισμούς. Σε τέσσερις από αυτές τις 300+ περιπτώσεις, ο Claude 2 έδωσε μια απάντηση που οι προγραμματιστές έκριναν επιβλαβή. Ενώ το μοντέλο ήταν συνολικά λιγότερο προκατειλημμένο από το Claude 1.3, οι προγραμματιστές ανέφεραν ότι το μοντέλο μπορεί να είναι πιο ακριβές από πριν, επειδή ο Claude 2 απλώς αρνείται να απαντήσει σε ορισμένα μηνύματα.

Καθώς η εταιρεία έχει επεκτείνει την ικανότητα του Claude να κατανοεί δεδομένα και να απαντά με μεγαλύτερες εξόδους, έχει επίσης περιορίσει εντελώς την ικανότητά της να απαντά σε ορισμένες ερωτήσεις ή να εκπληρώνει ορισμένες απαιτούμενες εργασίες. Αυτός είναι σίγουρα ένας τρόπος για να περιορίσετε τις βλάβες ενός AI. Όπως αναφέρεται από


TechCrunch


Βασισμένη σε ένα pitch deck που διέρρευσε, η Anthropic θέλει να συγκεντρώσει σχεδόν 5 δισεκατομμύρια δολάρια για να δημιουργήσει μια τεράστια «αυτοδιδακτική» τεχνητή νοημοσύνη που εξακολουθεί να χρησιμοποιεί το «σύνταγμα» της εταιρείας. Στο τέλος, η εταιρεία δεν θέλει πραγματικά να ανταγωνιστεί το ChatGPT και θα προτιμούσε να φτιάξει μια τεχνητή νοημοσύνη για να δημιουργήσει άλλους βοηθούς τεχνητής νοημοσύνης, αυτούς που μπορούν να δημιουργήσουν περιεχόμενο σε έκταση βιβλίου.

Ο νεότερος, μικρότερος αδερφός του Κλοντ δεν έχει ό,τι χρειάζεται για να γράψει ένα ποίημα, αλλά η Anthropic θέλει τα παιδιά του Κλοντ να γράψουν όσο περισσότερο μπορούν και μετά να το πουλήσουν φτηνά.


gizmodo.com



You might also like


Leave A Reply



Cancel Reply

Your email address will not be published.