Γιατί το Grok AI του Έλον Μασκ επαναφέρει τις απαντήσεις του ChatGPT κατά λέξη;



Αυτή δεν είναι επενδυτική συμβουλή. Ο συγγραφέας δεν έχει θέση σε καμία από τις μετοχές που αναφέρονται. Το Wccftech.com έχει πολιτική αποκάλυψης και δεοντολογίας.

Το xAI του

Musk έχει χαρακτηρίσει το Grok Large Language Model (LLM) του ως το πρώτο σημαντικό βήμα προς μια «

που αναζητά τη μέγιστη αλήθεια», που κατανοεί την αληθινή φύση του

τος. Προς το παρόν, ωστόσο, το μοντέλο τεχνητής νοημοσύνης φαίνεται ικανοποιημένο να επαναφέρει αυτολεξεί τις απαντήσεις του GPT LLM του OpenAI, αποτελώντας μια πλήρη απόκλιση από τους πρωταρχικούς υψηλούς στόχους που υποτίθεται ότι αποτελούν το ίδιο το ήθος του Grok AI.

Προς το παρόν, ο Grok μπορεί να ερμηνεύσει μια προτροπή έως και 25.000 χαρακτήρων. Το LLM έχει εκπαιδευτεί όχι μόνο σε

Ο Σωρός

– ένα πανταχού παρόν σύνολο δεδομένων εκπαίδευσης μοντέλων AI – αλλά και στα βουνά δεδομένων που προέρχονται από το X. Επιπλέον, το Grok είναι προφανώς σε θέση να έχει πρόσβαση και να ερμηνεύει πληροφορίες σε πραγματικό χρόνο μέσω της ενσωμάτωσής του στην πλατφόρμα κοινωνικών μέσων X.

Αυτό μας φέρνει στην ουσία του θέματος. Ο Έλον Μασκ ανακοίνωσε αυτή την εβδομάδα ότι το μοντέλο Grok AI διατίθεται πλέον σε όλους τους συνδρομητές επί πληρωμή της πλατφόρμας X. Για να δοκιμάσει αυτό το νέο μοντέλο, ο Jax Winterbourne, επαγγελματίας χάκερ, ζήτησε από τον Grok να τροποποιήσει έναν κακόβουλο κώδικα. Σε απόκριση, το LLM αντάλλαξε την απάντηση του GPT του OpenAI λέξη προς λέξη, φτάνοντας στο σημείο να αναφέρεται στην πολιτική του OpenAI στο κείμενο εξόδου.

Ο Winterbourne θέτει στη συνέχεια μερικές θεωρίες σχετικά με το γιατί συμβαίνει μια τέτοια κραυγαλέα παλινδρόμηση, που κυμαίνονται από την αναιδή πρόταση ότι ο Grok είναι απλώς παράγωγο του GPT LLM του OpenAI μέχρι την πολύ πιο λογική εξήγηση ότι η παλινδρομική απόκριση είναι αποτέλεσμα παραισθήσεων μοντέλου.

Αναφέραμε πρόσφατα ότι ο Grok ξεπέρασε κάθε άλλο LLM, συμπεριλαμβανομένου του Claude 2 του Anthropic, με εξαίρεση το

του OpenAI σε μια μακροχρόνια εξέταση μαθηματικών, κερδίζοντας συνολική βαθμολογία 59 τοις εκατό έναντι 68 τοις εκατό για το GPT-4. Αυτό υποδηλώνει ότι το μοντέλο AI δεν είναι απλώς ένα παράγωγο του GPT LLM του OpenAI.

Κατά συνέπεια, η πιο πιθανή εξήγηση για αυτή τη συμπεριφορά είναι ότι ο Grok έχει προφανώς εκπαιδευτεί εκτενώς στις απαντήσεις του GPT. Ως εκ τούτου, αντί να διαμορφώσει μια μοναδική απάντηση ενώ αναφέρεται στις πολιτικές του xAI για κακόβουλους κώδικες, το LLM απλώς επανέφερε τη στάση του OpenAI. Αυτό δείχνει επίσης ότι η τρέχουσα γενιά μοντέλων AI είναι απλώς δοξασμένες επαναλήψεις του α

Κινέζικο δωμάτιο

– ένα πείραμα σκέψης που υποθέτει ότι τα μοντέλα τεχνητής νοημοσύνης δεν καταλαβαίνουν πραγματικά τη γλώσσα ή δεν σκέφτονται.

Ενημέρωση: Απαντάει ο συνιδρυτής του xAI

Τώρα έχουμε μια απάντηση από τον συνιδρυτή της xAI, Igor Babuschkin. Ο υψηλόβαθμος υπάλληλος της xAI παραδέχεται ότι η εκπαίδευση του Grok ενσωμάτωσε κατά λάθος κάποια αποτελέσματα GPT.


VIA:

wccftech.com


Leave A Reply



Cancel Reply

Your email address will not be published.