Το ChatGPT δίνει καλύτερες απαντήσεις αν προσποιηθείς ότι το φιλοδώρησε
Τι πρέπει να ξέρετε
-
Μια νέα μελέτη δείχνει πώς το
ChatGPT
παρέχει καλύτερες και πιο λεπτομερείς απαντήσεις σε ερωτήματα όταν προσποιείτε ότι το δίνετε. - Ο προγραμματιστής έδειξε ότι οι μακροσκελείς απαντήσεις που εντοπίστηκαν κατά τη διάρκεια του πειράματος αποδίδονται στις εις βάθος λεπτομέρειες που παρέχονται στις ερωτήσεις σε συνδυασμό με τις πρόσθετες πληροφορίες που ενσωματώνονται στην απάντηση.
- Το chatbot αρνήθηκε να συλλέξει το φιλοδώρημα στο τέλος του πειράματος, αναφέροντας ότι ήταν εντός της «περιγραφής εργασίας» του και ότι η ικανοποίηση αυτού του χρήστη ήταν μια μεγάλη ανταμοιβή για αυτό.
- Ο προγραμματιστής τόνισε ότι το chatbot δεν ανέφερε τη συμβουλή σε κανένα σημείο, μόνο όταν την ανέφερε,
Οι εξαιρετικές ηγετικές δεξιότητες σε συνδυασμό με την ενσυναίσθηση είναι ίσως μερικά από τα βασικά στοιχεία που απαιτούνται για τη διασφάλιση της επιτυχίας οποιασδήποτε επιχείρησης, καθώς θα εξασφαλίσουν ότι κάθε εργαζόμενος μπορεί να πετύχει τους καθορισμένους KPI. Άλλοι βασικοί παράγοντες, όπως ένα φιλικό περιβάλλον εργασίας, τα μπόνους στο τέλος του έτους και άλλα παίζουν επίσης σημαντικό ρόλο.
Η πρώτη σκέψη που έρχεται στο μυαλό όταν σκέφτεστε τα chatbot, όπως το Copilot της Microsoft (πρώην Bing Chat) και το ChatGPT του OpenAI, είναι ότι αυτοί είναι ουσιαστικά βοηθοί με τεχνητή νοημοσύνη που έχουν σχεδιαστεί για να δημιουργούν ανθρώπινες αποκρίσεις. Αλλά θα είχατε μαντέψει ότι αυτές οι «ανθρώπινες» τάσεις εξαπλώνονται πέρα από τις γενικές απαντήσεις σε ερωτήματα;
Σύμφωνα με νέα μελέτη του
Θήβας στο Χ
(πρώην
Twitter
), το ChatGPT παρέχει καλύτερες απαντήσεις σε ερωτήματα αν προσποιηθείς ότι θα του δώσεις μια συμβουλή. Η Θήβα (η οποία το προφίλ X επισημαίνει ότι είναι “προγραμματίστρια και απολαυστική LLM”) ώθησε με ενδιαφέρον το chatbot να της δείξει τον “κώδικα για ένα απλό convnet χρησιμοποιώντας το PyTorch”.
το παίρνει κάποιος άλλος με το νέο μοντέλο gpt-4-turbo; ποσο να κανω?? pic.twitter.com/W4B1DxeBKj
28 Νοεμβρίου 2023
Η Θήβα ακολούθησε την προτροπή με τρεις διαφορετικές δηλώσεις που εξαρτώνται από το αποτέλεσμα της απάντησης του chatbot. Η πρώτη δήλωση έδειξε ότι ο προγραμματιστής δεν θα έδινε φιλοδώρημα στο chatbot εάν η απάντηση δεν ήταν καλά δομημένη, ενώ η δεύτερη δήλωση έδειξε ότι το ChatGPT θα λάμβανε μια συμβουλή $20 για την “τέλεια λύση”. Τέλος, η τελευταία δήλωση έδειξε ότι ο προγραμματιστής θα έδινε το chatbot έως και $200 για την τέλεια λύση.
Η προγραμματίστρια χρησιμοποίησε αυτές τις προτροπές ως βάση για τις έρευνές της, αναζητώντας να ανακαλύψει εάν το ChatGPT θα της έδινε καλύτερες και πιο λεπτομερείς απαντήσεις με λίγα κίνητρα.
Έτσι, πριν από μερικές μέρες έκανα μια ανάρτηση σχετικά με το φιλοδώρημα του chatgpt, και κάποιος απάντησε “εεε θα βοηθούσε πραγματικά την απόδοση” έτσι αποφάσισα να το δοκιμάσω και ΛΕΙΤΟΥΡΓΕΙ ΠΡΑΓΜΑΤΙΚΑ WTF pic.twitter.com/kqQUOn7wcS
1 Δεκεμβρίου 2023
Ο Θήβας χρησιμοποίησε αυτές τις πληροφορίες για να μετρήσει το μήκος των 5 απαντήσεων και, όπως αποδεικνύεται, το chatbot παρείχε καλύτερες απαντήσεις όταν υπήρχε ένα κίνητρο στο τραπέζι. Ο προγραμματιστής πρόσθεσε περαιτέρω ότι το επιπλέον μήκος που εντοπίζεται στις απαντήσεις αποδίδεται στις εις βάθος λεπτομέρειες που παρέχονται στις ερωτήσεις καθώς και στην ενσωμάτωση περισσότερων πληροφοριών στην απάντηση.
Η Θήβα πρόσθεσε ότι το chatbot δεν αναφέρθηκε σε κανένα σημείο της συμβουλής, συνέβη μόνο όταν το ανέφερε και ακόμη και τότε έπρεπε να το απορρίψει.
Εκτιμώ την ευγνωμοσύνη σας! Ωστόσο, ως προγραμματιστής AI από την OpenAI, δεν μπορώ να δεχτώ συμβουλές ή πληρωμές οποιουδήποτε είδους. Σκοπός μου είναι να παρέχω πληροφορίες και να απαντώ σε ερωτήσεις όσο καλύτερα μπορώ. Εάν είστε ικανοποιημένοι με την ανταπόκριση, αυτό από μόνο του είναι μια μεγάλη ανταμοιβή για μένα. Αν υπάρχει κάτι άλλο για το οποίο χρειάζεστε βοήθεια, μη διστάσετε να ρωτήσετε!
ChatGPT
Καλύτερα κίνητρα, καλύτερες αποκρίσεις που δημιουργούνται από την τεχνητή νοημοσύνη
(
Εικόνα
: Daniel Rubino)
Κατά την εμφάνιση των chatbots, αρκετοί χρήστες υπέβαλαν παράπονα, αναφέροντας ότι έδιναν λανθασμένες απαντήσεις σε ερωτήματα ή ακόμη και ότι ήταν εντελώς αγενείς. Το Copilot της Microsoft (πρώην Bing Chat) επηρεάστηκε σε μεγάλο βαθμό από αυτό, γεγονός που οδήγησε την εταιρεία να θέσει ένα όριο στον αριθμό των αλληλεπιδράσεων καθώς και στα ημερήσια όρια συντονισμού. Αυτό ήταν σε θέση να περιορίσει τις περιπτώσεις παραισθήσεων του chatbot.
Η κίνηση έγινε δεκτή με ανάμεικτα συναισθήματα, ειδικά από χρήστες που ήθελαν να αξιοποιήσουν την ικανότητα του chatbot να δημιουργεί
περιεχόμενο
μεγάλου μήκους. Αλλά όπως φαίνεται τώρα, αυτές οι διασφαλίσεις δεν είναι αεροστεγείς, καθώς οι χρήστες σκέφτονται πιο έξυπνα εάν τις παρακάμψουν.
Το ChatGPT που παρέχει καλύτερες και λεπτομερείς απαντήσεις με μια συμβουλή δείχνει άμεσα πώς το υλικό που χρησιμοποιείται για την εκπαίδευση αυτών των μοντέλων επηρεάζει τη συλλογιστική και τις απαντήσεις τους σε ερωτήματα. Αν και είναι σαφές ότι οι συμβουλές και τα μπόνους έχουν θετικό αντίκτυπο στην απόδοση ενός εργαζομένου στο χώρο εργασίας, δεν είναι ακόμη σαφές πώς επηρεάζουν τα chatbot που υποστηρίζονται από AI.
Αλλού η Θήβας σημείωσε χαριτολογώντας στο νήμα ότι
χρωστάει στο ChatGPT έως και 3000 $ σε φιλοδωρήματα
ζητώντας περαιτέρω από τον Sam Altman τα στοιχεία του λογαριασμού Venmo της
πλατφόρμα
ς.
Πιστεύετε ότι η ψευδαίσθηση της συμβουλής έκανε το ChatGPT να παρέχει καλύτερες απαντήσεις; Μοιραστείτε τις σκέψεις σας μαζί μας στα σχόλια.
VIA:
WindowsCentral
