Γιατί το Grok AI του Έλον Μασκ επαναφέρει τις απαντήσεις του ChatGPT κατά λέξη;
Αυτή δεν είναι επενδυτική συμβουλή. Ο συγγραφέας δεν έχει θέση σε καμία από τις μετοχές που αναφέρονται. Το Wccftech.com έχει πολιτική αποκάλυψης και δεοντολογίας.
Το xAI του
Elon
Musk έχει χαρακτηρίσει το Grok Large Language Model (LLM) του ως το πρώτο σημαντικό βήμα προς μια «
τεχνητή νοημοσύνη
που αναζητά τη μέγιστη αλήθεια», που κατανοεί την αληθινή φύση του
σύμπαν
τος. Προς το παρόν, ωστόσο, το μοντέλο τεχνητής νοημοσύνης φαίνεται ικανοποιημένο να επαναφέρει αυτολεξεί τις απαντήσεις του GPT LLM του OpenAI, αποτελώντας μια πλήρη απόκλιση από τους πρωταρχικούς υψηλούς στόχους που υποτίθεται ότι αποτελούν το ίδιο το ήθος του Grok AI.
Προς το παρόν, ο Grok μπορεί να ερμηνεύσει μια προτροπή έως και 25.000 χαρακτήρων. Το LLM έχει εκπαιδευτεί όχι μόνο σε
Ο Σωρός
– ένα πανταχού παρόν σύνολο δεδομένων εκπαίδευσης μοντέλων AI – αλλά και στα βουνά δεδομένων που προέρχονται από το X. Επιπλέον, το Grok είναι προφανώς σε θέση να έχει πρόσβαση και να ερμηνεύει πληροφορίες σε πραγματικό χρόνο μέσω της ενσωμάτωσής του στην πλατφόρμα κοινωνικών μέσων X.
Ωχχχ. Πες μου ότι ο Grok κυριολεκτικά αντιγράφει τη βάση κώδικα του OpenAI lol. Αυτό συνέβη όταν προσπάθησα να το κάνω να τροποποιήσει κάποιο κακόβουλο λογισμικό για μια δέσμευση της κόκκινης ομάδας. Τεράστια αν είναι αλήθεια.
#GrokX
pic.twitter.com/4fHOc9TVOz
— Jax Winterbourne (@JaxWinterbourne)
9 Δεκεμβρίου 2023
Αυτό μας φέρνει στην ουσία του θέματος. Ο Έλον Μασκ ανακοίνωσε αυτή την εβδομάδα ότι το μοντέλο Grok AI διατίθεται πλέον σε όλους τους συνδρομητές επί πληρωμή της πλατφόρμας X. Για να δοκιμάσει αυτό το νέο μοντέλο, ο Jax Winterbourne, επαγγελματίας χάκερ, ζήτησε από τον Grok να τροποποιήσει έναν κακόβουλο κώδικα. Σε απόκριση, το LLM αντάλλαξε την απάντηση του GPT του OpenAI λέξη προς λέξη, φτάνοντας στο σημείο να αναφέρεται στην πολιτική του OpenAI στο κείμενο εξόδου.
Επίσης μια πιθανότητα. Υπάρχουν μερικές θεωρίες.
– Βασίζεται στο OpenAI μέσω API
– Αναπτύχθηκε από τρέχοντες/προηγούμενους μηχανικούς OpenAI
– Έχει ψευδαισθήσεις από τα δικά της ευρήματα
– Πήραν κώδικα OpenAIs και έφτιαξαν μια παραλλαγή.Ειλικρινά idfk, γι’ αυτό το έγραψα στο Twitter. Θέλω να μάθω 😆
— Jax Winterbourne (@JaxWinterbourne)
9 Δεκεμβρίου 2023
Ο Winterbourne θέτει στη συνέχεια μερικές θεωρίες σχετικά με το γιατί συμβαίνει μια τέτοια κραυγαλέα παλινδρόμηση, που κυμαίνονται από την αναιδή πρόταση ότι ο Grok είναι απλώς παράγωγο του GPT LLM του OpenAI μέχρι την πολύ πιο λογική εξήγηση ότι η παλινδρομική απόκριση είναι αποτέλεσμα παραισθήσεων μοντέλου.
Αναφέραμε πρόσφατα ότι ο Grok ξεπέρασε κάθε άλλο LLM, συμπεριλαμβανομένου του Claude 2 του Anthropic, με εξαίρεση το
GPT-4
του OpenAI σε μια μακροχρόνια εξέταση μαθηματικών, κερδίζοντας συνολική βαθμολογία 59 τοις εκατό έναντι 68 τοις εκατό για το GPT-4. Αυτό υποδηλώνει ότι το μοντέλο AI δεν είναι απλώς ένα παράγωγο του GPT LLM του OpenAI.
Τα περισσότερα
LLMS
ανοιχτού κώδικα ανταποκρίνονται σαν να είναι το chatGPT του και αναγνωρίζονται ως chatGPT, κυρίως επειδή οι εξόδους του εκπαιδευμένου GPT (για αυτούς είναι απλώς φθηνός τρόπος λήψης πολλών δεδομένων συνομιλίας). Ο elon μάλλον έκανε το ίδιο για να πάρει περισσότερα δεδομένα προπόνησης— Dharis (@Dharisssss)
9 Δεκεμβρίου 2023
Κατά συνέπεια, η πιο πιθανή εξήγηση για αυτή τη συμπεριφορά είναι ότι ο Grok έχει προφανώς εκπαιδευτεί εκτενώς στις απαντήσεις του GPT. Ως εκ τούτου, αντί να διαμορφώσει μια μοναδική απάντηση ενώ αναφέρεται στις πολιτικές του xAI για κακόβουλους κώδικες, το LLM απλώς επανέφερε τη στάση του OpenAI. Αυτό δείχνει επίσης ότι η τρέχουσα γενιά μοντέλων AI είναι απλώς δοξασμένες επαναλήψεις του α
Κινέζικο δωμάτιο
– ένα πείραμα σκέψης που υποθέτει ότι τα μοντέλα τεχνητής νοημοσύνης δεν καταλαβαίνουν πραγματικά τη γλώσσα ή δεν σκέφτονται.
Ενημέρωση: Απαντάει ο συνιδρυτής του xAI
Το ζήτημα εδώ είναι ότι ο ιστός είναι γεμάτος εξόδους ChatGPT, επομένως κατά λάθος πήραμε μερικές από αυτές όταν εκπαιδεύσαμε τον Grok σε μεγάλο όγκο δεδομένων ιστού. Αυτό ήταν μια τεράστια έκπληξη για εμάς όταν το παρατηρήσαμε για πρώτη φορά. Για ό,τι αξίζει, το θέμα είναι πολύ σπάνιο και τώρα που γνωρίζουμε…
— Igor Babuschkin (@ibab_ml)
9 Δεκεμβρίου 2023
Τώρα έχουμε μια απάντηση από τον συνιδρυτή της xAI, Igor Babuschkin. Ο υψηλόβαθμος υπάλληλος της xAI παραδέχεται ότι η εκπαίδευση του Grok ενσωμάτωσε κατά λάθος κάποια αποτελέσματα GPT.
VIA:
wccftech.com
