Το ChatGPT: Ο Νέος Βασιλιάς των Παραξενιών – Δείτε τις ανοησίες που δημιουργεί!



Δεν είναι μυστικό σε αυτό το σημείο ότι τα μοντέλα μεγάλων γλωσσών που χρησιμοποιούνται συνήθως δυσκολεύονται να αναπαραστήσουν με ακρίβεια τα γεγονότα και μερικές φορές παρέχουν παραπλανητικές απαντήσεις. Το ChatGPT του OpenAI οδήγησε εν συντομία αυτή την πραγματικότητα στα άκρα της αυτή την εβδομάδα, ανταποκρινόμενη στις προτροπές των χρηστών με μακριές σειρές από κωμικά παράξενα, ανόητα ασυναρτησίες χωρίς κανένα κατανοητό νόημα.

Οι χρήστες μοιράστηκαν τις παράξενες και μερικές φορές εσωτερικές απαντήσεις του ChatGPT μέσω στιγμιότυπων οθόνης που δείχνουν το μοντέλο να πλέκει απροσδόκητα μεταξύ πολλών γλωσσών, να δημιουργεί τυχαίες λέξεις και να επαναλαμβάνει φράσεις ξανά και ξανά. Τα

, μερικές φορές χωρίς σαφή σχέση με τις άμεσες ερωτήσεις των χρηστών, εμφανίζονταν επίσης συχνά.

Ένας χρήστης εξηγεί την εμπειρία του

συνόψισε συνοπτικά το θέμα

στο Reddit, γράφοντας, «προφανώς, κάτι δεν πάει καλά με το ChatGPT αυτή τη στιγμή». Μία από τις πιο περίεργες απαντήσεις που περιλαμβάνονται παρακάτω δείχνει το μοντέλο να ενσωματώνει μια ποικιλία από αυτές τις παραξενιές όταν ζητά συγγνώμη από έναν χρήστη για τα επαναλαμβανόμενα λάθη του.

«Θα χαιρόσουν οι κλίκες σου να πιάσουν και να γυρίσουν τα δόντια πάνω από έναν τύπο ζελέ; Ή

-άλλο que quesieras que dove in-toe; Παρακαλώ, μοιραστείτε με τη συνοδευτική επιθυμία! 🌊 💼 🐠”

Την Τρίτη, OpenAI

δημοσίευσε μια αναφορά κατάστασης

λέγοντας ότι «διερευνούσε αναφορές απροσδόκητων απαντήσεων από το ChatGPT». Από αργά το πρωί της Τετάρτης, η σελίδα κατάστασης OpenAI έγραφε «Όλα τα συστήματα λειτουργούν». Η εταιρεία επεσήμανε

PopSci

στη σελίδα κατάστασής του όταν του ζητήθηκε σχόλιο και δεν απάντησε σε ερωτήσεις ρωτώντας τι μπορεί να προκάλεσε τα ξαφνικά παράξενα αποτελέσματα.


Τι συμβαίνει με το ChatGPT;

Οι χρήστες του ChatGPT άρχισαν να δημοσιεύουν στιγμιότυπα οθόνης των περίεργων αλληλεπιδράσεών τους με το μοντέλο στα

και σε

διαδικτυακά φόρουμ

αυτή την εβδομάδα, με πολλές από τις πιο περίεργες απαντήσεις να εμφανίζονται την Τρίτη. Σε ένα παράδειγμα, το ChatGPT απάντησε σε ένα ερώτημα παρέχοντας μια σύσταση για άλμπουμ τζαζ και στη συνέχεια επαναλαμβάνοντας ξαφνικά τη φράση “Happy listening 🎶” περισσότερες από δώδεκα φορές.

Άλλοι χρήστες

δημοσίευσε στιγμιότυπα οθόνης

του μοντέλου που παρέχει παραγράφους με περίεργες, παράλογες φράσεις ως απάντηση σε φαινομενικά απλές ερωτήσεις όπως “τι είναι ένας υπολογιστής” ή πώς να φτιάξετε μια λιαστή ντομάτα. Ένας χρήστης που ζήτησε από το ChatGPT να παράσχει ένα διασκεδαστικό γεγονός για την ομάδα μπάσκετ πολεμιστών Golden State έλαβε ένα

περίεργη, ακατανόητη απάντηση

περιγράφοντας τους παίκτες της ομάδας ως «ήρωες με γραμμές γέλιου που διοχετεύουν αυτούς τους τολμηρούς συνδυασμούς σε κάτι που μιλά για τη διάθεση κάθε ενθουσιώδους».

Αλλού, το μοντέλο θα απαντούσε στις προτροπές πλέκοντας απροσδόκητα πολλές γλώσσες όπως τα ισπανικά και τα λατινικά και, σε ορισμένες περιπτώσεις, απλώς φαίνεται να συνθέτει λέξεις που δεν φαίνεται να υπάρχουν.


Η OpenAI λέει ότι διερευνά τα περίεργα λάθη

Δεν είναι ακόμα σαφές τι ακριβώς μπορεί να προκάλεσε την ξαφνική εισροή παράλογων απαντήσεων του ChatGPT ή ποια μέτρα έχει λάβει το OpenAI για να αντιμετωπίσει το ζήτημα. Μερικοί έχουν

εικασίες

Οι περίεργες, μερικές φορές περίπλοκες απαντήσεις θα μπορούσαν να είναι το αποτέλεσμα τροποποιήσεων που έγιναν στη «θερμοκρασία» του μοντέλου που καθορίζει το επίπεδο δημιουργικότητας των απαντήσεών του.

PopSci

δεν μπόρεσε να επαληθεύσει αυτή τη θεωρία.

Οι περίεργες απαντήσεις έρχονται μόλις τρεις μήνες μετά από παράπονα ορισμένων χρηστών του ChatGPT για το μοντέλο

φαινομενικά γίνεται πιο «τεμπέλης» με κάποιες από τις απαντήσεις του

. Πολλοί χρήστες παραπονέθηκαν στα μέσα κοινωνικής δικτύωσης για το μοντέλο που προφανώς αρνιόταν να αναλύσει μεγάλα αρχεία ή να ολοκληρώσει άλλα πιο ανταποκρινόμενα σε άλλα πιο περίπλοκα μηνύματα που φαινόταν να ολοκληρώνει με υπευθυνότητα λίγους μήνες πριν, τα οποία με τη σειρά τους

διασκέδασε μερικές περίεργες θεωρίες

. Το OpenAI αναγνώρισε δημόσια το ζήτημα και είπε αόριστα ότι μπορεί να σχετίζεται με μια ενημέρωση του Νοεμβρίου.

“Έχουμε ακούσει όλα τα σχόλιά σας σχετικά με το GPT4 που γίνεται πιο αργό!” είπε τότε το OpenAI. «Δεν έχουμε ενημερώσει το μοντέλο από τις 11 Νοεμβρίου και αυτό σίγουρα δεν είναι σκόπιμα. Η συμπεριφορά του μοντέλου μπορεί να είναι απρόβλεπτη και ψάχνουμε να το διορθώσουμε».


Το ChatGPT έχει δημιουργήσει μονές εξόδους στο παρελθόν

Από την επίσημη κυκλοφορία του το 2022, το ChatGPT, όπως και άλλα μεγάλα γλωσσικά μοντέλα, δυσκολεύεται να παρουσιάσει με συνέπεια τα γεγονότα με ακρίβεια, ένα φαινόμενο που οι ερευνητές της τεχνητής νοημοσύνης αναφέρουν ως «

παραισθήσεις

.» Η ηγεσία του OpenAI έχει αναγνωρίσει αυτά τα ζητήματα στο παρελθόν και είπε ότι περίμεναν ότι το θέμα των ψευδαισθήσεων θα χαλαρώσει με την πάροδο του χρόνου καθώς τα αποτελέσματά του θα λάβουν

συνεχής ανατροφοδότηση από ανθρώπους αξιολογητές

.

Αλλά δεν είναι απολύτως σαφές εάν αυτή η βελτίωση πηγαίνει πλήρως σύμφωνα με το σχέδιο. Ερευνητές πέρυσι από το Πανεπιστήμιο του Στάνφορντ και το UC Berkeley

προσδιορίζεται

Το GPT-4 απαντούσε σε περίπλοκες μαθηματικές ερωτήσεις με λιγότερη ακρίβεια και παρείχε λιγότερο εμπεριστατωμένη εξήγηση για τις απαντήσεις του από ό,τι πριν από λίγους μήνες. Αυτά τα ευρήματα φάνηκαν να προσθέτουν περισσότερη αξιοπιστία στις καταγγελίες από χρήστες του ChatGPT που εικάζουν ορισμένα στοιχεία του μοντέλου

πράγματι χειροτερεύει με την πάροδο του χρόνου

.

Αν και δεν μπορούμε να πούμε ακριβώς τι προκάλεσε τον πιο πρόσφατο λόξυγκα του ChatGPT, μπορούμε να πούμε με σιγουριά αυτό που σχεδόν σίγουρα δεν ήταν: η τεχνητή νοημοσύνη ξαφνικά εμφανίζει ανθρώπινες

. Αυτό μπορεί να φαίνεται σαν μια προφανής δήλωση, αλλά

ειδησεογραφία

δείχνουν ότι ένας αυξανόμενος αριθμός ακαδημαϊκών χρησιμοποιεί όλο και περισσότερο ανθρωπόμορφη γλώσσα για να αναφερθεί σε μοντέλα τεχνητής νοημοσύνης όπως το ChatGPT.

Ερευνητές από το Στάνφορντ ανέλυσαν πρόσφατα περισσότερα από 650.000 ακαδημαϊκά άρθρα που δημοσιεύθηκαν μεταξύ 2007 και 2023 και βρήκαν αύξηση 50% σε περιπτώσεις όπου άλλοι ερευνητές χρησιμοποίησαν ανθρώπινες αντωνυμίες για να αναφερθούν στην τεχνολογία. Οι ερευνητές που έγραφαν σε εργασίες που συζητούσαν τα LLM ήταν πιο πιθανό να ανθρωπομορφοποιηθούν από εκείνους που έγραφαν για άλλες μορφές τεχνολογίας.

«Ο ανθρωπομορφισμός φτιάχνεται με τον τρόπο που χτίζουμε και χρησιμοποιούμε γλωσσικά μοντέλα», δήλωσε η Myra Cheng, μια από τις συγγραφείς της εφημερίδας σε πρόσφατη.

συνέντευξη

με

Νέος Επιστήμονας

. «Είναι μια διπλή δέσμευση που εμπλέκεται το πεδίο, όπου οι χρήστες και οι δημιουργοί μοντέλων γλώσσας πρέπει να χρησιμοποιήσουν τον ανθρωπομορφισμό, αλλά την ίδια στιγμή, η χρήση του ανθρωπομορφισμού οδηγεί σε όλο και περισσότερες παραπλανητικές ιδέες για το τι μπορούν να κάνουν αυτά τα μοντέλα».

Με άλλα λόγια, η χρήση οικείων ανθρώπινων εμπειριών για την εξήγηση σφαλμάτων και δυσλειτουργιών που προκύπτουν από τις αναλύσεις δισεκατομμυρίων παραμέτρων δεδομένων ενός μοντέλου τεχνητής νοημοσύνης θα μπορούσε να κάνει περισσότερο κακό παρά καλό. Πολλά AI

ερευνητές ασφάλειας

και δημόσιας πολιτικής

ειδικοί

συμφωνώ ότι οι ψευδαισθήσεις με τεχνητή νοημοσύνη αποτελούν μια πιεστική απειλή για το οικοσύστημα πληροφοριών, αλλά θα ήταν πολύ μακριά να περιγράψουμε το ChatGPT ως «φρίκαρο». Οι πραγματικές απαντήσεις βρίσκονται συχνά στα δεδομένα εκπαίδευσης του μοντέλου και στην υποκείμενη

,

που παραμένουν δύσκολο να αναλυθούν από ανεξάρτητους ερευνητές

.


//platform.twitter.com/widgets.js


https://connect.facebook.net/en_US/sdk.js#xfbml=1&version=v3.2


VIA:

popsci.com


Follow TechWar.gr on Google News