Είναι τα μοντέλα τεχνητής νοημοσύνης καταδικασμένα να έχουν πάντα παραισθήσεις;
Τα μεγάλα γλωσσικά μοντέλα (LLM) όπως το ChatGPT του OpenAI υποφέρουν όλα από το ίδιο πρόβλημα: συνθέτουν πράγματα.
Τα λάθη κυμαίνονται από παράξενα και αβλαβή – όπως το να ισχυρίζεσαι ότι ήταν η γέφυρα Golden Gate
μεταφέρονται
σε όλη την Αίγυπτο το 2016 — έως άκρως προβληματικό, ακόμη και επικίνδυνο.
Ένας δήμαρχος στην Αυστραλία απείλησε πρόσφατα
κανω μηνυση
Το OpenAI επειδή το ChatGPT κατά λάθος ισχυρίστηκε ότι ομολόγησε την ενοχή του σε ένα μεγάλο σκάνδαλο δωροδοκίας.
Ερευνητές
έχουν βρει ότι οι παραισθήσεις LLM μπορούν να αξιοποιηθούν για τη διανομή κακόβουλων πακέτων κώδικα σε ανυποψίαστους προγραμματιστές λογισμικού. Και οι LLM συχνά δίνουν κακή ψυχική υγεία και ιατρικές συμβουλές, όπως η κατανάλωση κρασιού
μπορώ
«Πρόληψη του καρκίνου».
Αυτή η τάση να εφευρίσκουμε «γεγονότα» είναι ένα φαινόμενο γνωστό ως ψευδαίσθηση, και συμβαίνει λόγω του τρόπου με τον οποίο αναπτύσσονται και εκπαιδεύονται τα σημερινά LLMs —και όλα τα παραγωγικά μοντέλα τεχνητής νοημοσύνης, για εκείνο το θέμα.
Μοντέλα
εκπαίδευση
ς
Τα μοντέλα γενετικής τεχνητής νοημοσύνης δεν έχουν πραγματική νοημοσύνη — είναι στατιστικά συστήματα που προβλέπουν λέξεις, εικόνες, ομιλία, μουσική ή άλλα δεδομένα. Τροφοδοτώντας έναν τεράστιο αριθμό παραδειγμάτων, που συνήθως προέρχονται από τον δημόσιο ιστό, τα μοντέλα τεχνητής νοημοσύνης μαθαίνουν πόσο πιθανό είναι να προκύψουν δεδομένα με βάση μοτίβα, συμπεριλαμβανομένου του πλαισίου οποιωνδήποτε δεδομένων περιβάλλοντος.
Για παράδειγμα, δεδομένου ενός τυπικού μηνύματος ηλεκτρονικού ταχυδρομείου που τελειώνει στο τμήμα «Κοιτάζοντας προς τα εμπρός…», ένα LLM μπορεί να το συμπληρώσει με «… για να ακούσω πίσω» — ακολουθώντας το πρότυπο των αμέτρητων μηνυμάτων ηλεκτρονικού ταχυδρομείου στα οποία έχει εκπαιδευτεί. Αυτό δεν σημαίνει ότι το LLM ανυπομονεί για τίποτα.
«Το τρέχον πλαίσιο εκπαίδευσης LLM περιλαμβάνει την απόκρυψη ή «απόκρυψη» προηγούμενων λέξεων για το πλαίσιο» και το μοντέλο να προβλέπει ποιες λέξεις θα πρέπει να αντικαταστήσουν τις κρυφές, Sebastian Berns, Ph.D. Ερευνητές στο Πανεπιστήμιο Queen Mary του Λονδίνου, είπαν στο TechCrunch σε μια συνέντευξη μέσω
email
. “Αυτό είναι εννοιολογικά παρόμοιο με τη χρήση προγνωστικού κειμένου στο iOS και το συνεχές πάτημα μιας από τις προτεινόμενες επόμενες λέξεις.”
Αυτή η προσέγγιση που βασίζεται σε πιθανότητες λειτουργεί εξαιρετικά καλά σε κλίμακα — ως επί το πλείστον. Αλλά ενώ το εύρος των λέξεων και οι πιθανότητες τους είναι
πιθανός
για να καταλήξουμε σε κείμενο που έχει νόημα, δεν είναι καθόλου σίγουρο.
Τα LLM μπορούν να δημιουργήσουν κάτι που είναι γραμματικά σωστό αλλά παράλογο, για παράδειγμα – όπως ο ισχυρισμός για το Golden Gate. Ή μπορούν να εκτοξεύσουν ανακρίβειες, διαδίδοντας ανακρίβειες στα δεδομένα της προπόνησής τους. Ή μπορούν να συνδυάσουν διαφορετικές πηγές πληροφοριών, συμπεριλαμβανομένων των φανταστικών πηγών, ακόμα κι αν αυτές οι πηγές αντιφάσκουν σαφώς μεταξύ τους.
Δεν είναι κακόβουλο από την πλευρά των LLM. Δεν έχουν κακία και οι έννοιες του αληθινού και του ψευδούς δεν έχουν νόημα γι’ αυτούς. Απλώς έχουν μάθει να συνδέουν ορισμένες λέξεις ή φράσεις με ορισμένες έννοιες, ακόμα κι αν αυτές οι συσχετίσεις δεν είναι ακριβείς.
Οι «παραισθήσεις» συνδέονται με την αδυναμία ενός LLM να εκτιμήσει την αβεβαιότητα της δικής του πρόβλεψης», είπε ο Berns. «Ένα LLM συνήθως εκπαιδεύεται ώστε να παράγει πάντα μια έξοδο, ακόμη και όταν η είσοδος είναι πολύ διαφορετική από τα δεδομένα εκπαίδευσης. Ένα τυπικό LLM δεν έχει κανέναν τρόπο να γνωρίζει εάν είναι ικανό να απαντήσει αξιόπιστα σε ένα ερώτημα ή να κάνει μια πρόβλεψη.”
Επίλυση παραισθήσεων
Το ερώτημα είναι, μπορεί να λυθεί η ψευδαίσθηση; Εξαρτάται από το τι εννοείτε με τον όρο “λύθηκε”.
Ο Vu Ha, εφαρμοσμένος ερευνητής και μηχανικός στο Allen Institute for Artificial Intelligence, ισχυρίζεται ότι
Οι LLMs «κάνουν και θα έχουν πάντα παραισθήσεις». Αλλά πιστεύει επίσης ότι υπάρχουν συγκεκριμένοι τρόποι για τη μείωση —αν και όχι την εξάλειψη— των ψευδαισθήσεων, ανάλογα με το πώς εκπαιδεύεται και αναπτύσσεται ένα LLM.
«Σκεφτείτε ένα σύστημα απάντησης σε ερωτήσεις», είπε ο Χα μέσω email. «Είναι δυνατό να το διαμορφώσουμε ώστε να έχει υψηλή ακρίβεια επιμελώντας μια βάση γνώσεων υψηλής ποιότητας με ερωτήσεις και απαντήσεις και συνδέοντας αυτήν τη γνωσιακή βάση με ένα LLM για την παροχή ακριβών απαντήσεων μέσω μιας διαδικασίας που μοιάζει με ανάκτηση».
Ο Ha απεικόνισε τη διαφορά μεταξύ ενός LLM με βάση γνώσεων «υψηλής ποιότητας» έναντι ενός με λιγότερο προσεκτική επιμέλεια δεδομένων. Έβαλε την ερώτηση “Ποιοι είναι οι συγγραφείς της
εργασία
ς Toolformer;” (Το Toolformer είναι ένα μοντέλο τεχνητής νοημοσύνης που εκπαιδεύεται από τη Meta) μέσω του
Bing
Chat της Microsoft που υποστηρίζεται από LLM και του
Bard
της Google. Το Bing Chat απαρίθμησε σωστά και τους οκτώ συν-συγγραφείς του Meta, ενώ ο Bard παρέδωσε εσφαλμένα την εργασία σε ερευνητές της Google και του Hugging Face.
«Οποιοδήποτε σύστημα που βασίζεται στο LLM θα έχει παραισθήσεις. Το πραγματικό ερώτημα είναι εάν τα οφέλη υπερτερούν της αρνητικής έκβασης που προκαλείται από την ψευδαίσθηση», είπε ο Ha. Με άλλα λόγια, εάν δεν υπάρχει προφανής ζημιά από ένα μοντέλο – το μοντέλο έχει λάθος ημερομηνία ή όνομα κάθε τόσο, ας πούμε – αλλά κατά τα άλλα είναι χρήσιμο, τότε ίσως αξίζει τον συμβιβασμό. «Είναι ζήτημα μεγιστοποίησης της αναμενόμενης χρησιμότητας της τεχνητής νοημοσύνης», πρόσθεσε.
Ο Berns επεσήμανε μια άλλη τεχνική που είχε χρησιμοποιηθεί με κάποια επιτυχία για τη μείωση των παραισθήσεων σε LLM: την ενίσχυση της μάθησης από την ανθρώπινη ανατροφοδότηση (RLHF). Εισήχθη από το OpenAI το 2017, το RLHF περιλαμβάνει την εκπαίδευση ενός LLM, στη συνέχεια τη συλλογή πρόσθετων πληροφοριών για την εκπαίδευση ενός μοντέλου «ανταμοιβής» και την τελειοποίηση του LLM με το μοντέλο ανταμοιβής μέσω
ενισχυτική μάθηση
.
Στο RLHF, ένα σύνολο προτροπών από ένα προκαθορισμένο σύνολο δεδομένων περνά μέσα από ένα LLM για τη δημιουργία νέου κειμένου. Στη συνέχεια, οι ανθρώπινοι σχολιαστές χρησιμοποιούνται για την ταξινόμηση των αποτελεσμάτων από το LLM ως προς τη συνολική «βοηθητικότητά» τους — δεδομένα που χρησιμοποιούνται για την εκπαίδευση του μοντέλου ανταμοιβής. Το μοντέλο ανταμοιβής, το οποίο σε αυτό το σημείο μπορεί να λάβει οποιοδήποτε κείμενο και να του αποδώσει μια βαθμολογία για το πόσο καλά το αντιλαμβάνονται οι άνθρωποι, χρησιμοποιείται στη συνέχεια για να τελειοποιήσει τις δημιουργούμενες απαντήσεις του LLM.
Το OpenAI χρησιμοποίησε το RLHF για να εκπαιδεύσει πολλά από τα μοντέλα του, συμπεριλαμβανομένου του GPT-4. Αλλά ακόμη και το RLHF δεν είναι τέλειο, προειδοποίησε ο Berns.
«Πιστεύω ότι ο χώρος των δυνατοτήτων είναι πολύ μεγάλος για να «ευθυγραμμιστεί» πλήρως τα LLM με το RLHF», είπε ο Berns. “Κάτι που γίνεται συχνά στη ρύθμιση RLHF είναι η εκπαίδευση ενός μοντέλου για να παράγει μια απάντηση “δεν ξέρω” [to a tricky question], βασιζόμενος κυρίως στη γνώση του ανθρώπινου τομέα και ελπίζοντας ότι το μοντέλο τη γενικεύει στη γνώση του τομέα του. Συχνά συμβαίνει, αλλά μπορεί να είναι λίγο δύσκολο».
Εναλλακτικές φιλοσοφίες
Αν υποθέσουμε ότι η ψευδαίσθηση δεν είναι επιλύσιμη, τουλάχιστον όχι με τα σημερινά LLM, είναι κακό; Ο Μπερνς δεν το πιστεύει, στην πραγματικότητα. Τα παραισθησιογόνα μοντέλα θα μπορούσαν να τροφοδοτήσουν τη δημιουργικότητα ενεργώντας ως «συν-δημιουργικός εταίρος», υποστηρίζει — δίνοντας αποτελέσματα που μπορεί να μην είναι απολύτως τεκμηριωμένα, αλλά περιέχουν μερικά χρήσιμα νήματα για να τα τραβήξεις. Οι δημιουργικές χρήσεις της ψευδαίσθησης μπορούν να παράγουν αποτελέσματα ή συνδυασμούς ιδεών που μπορεί να μην συμβαίνουν στους περισσότερους ανθρώπους.
«Οι «παραισθήσεις» είναι ένα πρόβλημα εάν οι δηλώσεις που δημιουργούνται είναι πραγματικά λανθασμένες ή παραβιάζουν οποιεσδήποτε γενικές ανθρώπινες, κοινωνικές ή συγκεκριμένες πολιτιστικές αξίες — σε σενάρια όπου ένα άτομο βασίζεται στο LLM για να είναι ειδικός», είπε. «Αλλά σε δημιουργικές ή καλλιτεχνικές εργασίες, η ικανότητα να καταλήξουμε σε απροσδόκητα αποτελέσματα μπορεί να είναι πολύτιμη. Ένας ανθρώπινος παραλήπτης μπορεί να εκπλαγεί από μια απάντηση σε ένα ερώτημα και ως εκ τούτου να ωθηθεί σε μια συγκεκριμένη κατεύθυνση σκέψεων που μπορεί να οδηγήσει στη νέα σύνδεση των ιδεών».
Ο Χα υποστήριξε ότι τα LLMs του σήμερα τηρούνται σε παράλογα πρότυπα – οι άνθρωποι «παραισθάνονται» επίσης, τελικά, όταν θυμόμαστε λάθος ή με άλλο τρόπο παραποιούμε την αλήθεια. Αλλά με τα LLM, πιστεύει ότι βιώνουμε μια γνωστική ασυμφωνία επειδή τα μοντέλα παράγουν αποτελέσματα που φαίνονται καλά στην επιφάνεια, αλλά περιέχουν σφάλματα μετά από περαιτέρω επιθεώρηση.
«Με απλά λόγια, οι LLMs, όπως και κάθε τεχνική τεχνητής νοημοσύνης, είναι ατελείς και έτσι κάνουν λάθη», είπε. «Παραδοσιακά, είμαστε εντάξει με τα συστήματα τεχνητής νοημοσύνης να κάνουν λάθη, καθώς αναμένουμε και αποδεχόμαστε ατέλειες. Αλλά είναι πιο διαφοροποιημένο όταν οι LLM κάνουν λάθη».
Πράγματι, η απάντηση μπορεί κάλλιστα να μην βρίσκεται στο πώς λειτουργούν τα παραγωγικά μοντέλα AI σε τεχνικό επίπεδο. Στο βαθμό που υπάρχει μια «λύση» στις παραισθήσεις σήμερα, η αντιμετώπιση των προβλέψεων των μοντέλων με σκεπτικισμό φαίνεται να είναι η καλύτερη προσέγγιση.
