“Μπορεί περιστασιακά να δημιουργεί εσφαλμένες πληροφορίες.”
Αυτή είναι η προειδοποιητική καρφίτσα OpenAI στην αρχική σελίδα του ChatGPT του chatbot AI — ένα σημείο ανάμεσα σε εννέα που περιγράφουν λεπτομερώς τις δυνατότητες και τους περιορισμούς του συστήματος.
“Ενδέχεται ενίοτε παράγουν λανθασμένες πληροφορίες.”
Είναι μια προειδοποίηση που θα μπορούσατε να επιμείνετε σε σχεδόν οποιαδήποτε πηγή πληροφοριών, από τη Wikipedia έως το Google μέχρι την πρώτη σελίδα του Οι Νιου Γιορκ Ταιμς, και θα ήταν λίγο πολύ σωστό.
«Μπορεί περιστασιακά να δημιουργεί ανακριβής πληροφορίες.”
Διότι όταν πρόκειται για την προετοιμασία των ανθρώπων να χρησιμοποιήσουν την τεχνολογία τόσο ισχυρή, τόσο διαφημισμένη και τόσο παρεξηγημένη όσο το ChatGPT, είναι σαφές ότι το OpenAI δεν κάνει αρκετά.
Η παρεξηγημένη φύση του ChatGPT έγινε σαφής για πολλοστή φορά αυτό το Σαββατοκύριακο όταν κυκλοφόρησε η είδηση ότι ο αμερικανός δικηγόρος Steven A. Schwartz είχε στραφεί στο chatbot για να βρει υποστηρικτικές υποθέσεις σε μια αγωγή που ακολουθούσε κατά της κολομβιανής αεροπορικής εταιρείας Avianca. Το πρόβλημα, φυσικά, ήταν ότι καμία από τις περιπτώσεις που πρότεινε το ChatGPT δεν υπάρχει.
Ο Schwartz ισχυρίζεται ότι «αγνοούσε την πιθανότητα αυτό [ChatGPT's] το περιεχόμενο θα μπορούσε να είναι ψευδές», αν και οι απομαγνητοφωνήσεις της συνομιλίας του με το bot δείχνουν ότι ήταν αρκετά καχύποπτος για να ελέγξει την έρευνά του. Δυστυχώς, το έκανε ρωτώντας το ChatGPT και πάλι, το σύστημα τον παρέσυρε, καθησυχάζοντάς τον ότι το εικονικό ιστορικό υποθέσεων του ήταν νόμιμο:
Ο Schwartz αξίζει πολλές ευθύνες σε αυτό το σενάριο, αλλά η συχνότητα με την οποία συμβαίνουν περιπτώσεις όπως αυτή – όταν οι χρήστες του ChatGPT αντιμετωπίζουν το σύστημα ως αξιόπιστη πηγή πληροφοριών – υποδηλώνει ότι πρέπει επίσης να υπάρξει ευρύτερος απολογισμός.
Τους τελευταίους μήνες, υπήρξαν πολλές αναφορές ανθρώπων που εξαπατήθηκαν από τα ψέματα του ChatGPT. Οι περισσότερες περιπτώσεις είναι ασήμαντες και είχαν μικρό ή καθόλου αρνητικό αντίκτυπο. Συνήθως, το σύστημα συνθέτει μια είδηση ή μια ακαδημαϊκή εργασία ή ένα βιβλίο, τότε κάποιος προσπαθεί να βρει αυτήν την πηγή και είτε χάνει το χρόνο του είτε μοιάζει με ανόητο (ή και τα δύο). Αλλά είναι εύκολο να δούμε πώς η παραπληροφόρηση του ChatGPT θα μπορούσε να οδηγήσει σε πιο σοβαρές συνέπειες.
χρησιμοποίησε το chatbot για έλεγχο είτε τα δοκίμια των μαθητών είχαν γραφτεί με τη βοήθεια του AI. Πάντα υποχρεωτικό, το ChatGPT είπε, ναι, όλα τα δοκίμια των μαθητών δημιουργήθηκαν με τεχνητή νοημοσύνη, παρόλο που δεν έχει αξιόπιστη ικανότητα να κάνει αυτήν την αξιολόγηση. Ο καθηγητής απείλησε να ρίξει την τάξη και να κρατήσει τα πτυχία τους μέχρι να επισημανθεί το λάθος του. Στη συνέχεια, τον Απρίλιο, ένας καθηγητής Νομικής εξιστόρησε πώς το σύστημα παρήγαγε ψευδείς ειδήσεις που τον κατηγορούσαν για σεξουαλική κακή συμπεριφορά. Το έμαθε μόνο όταν ένας συνάδελφος, που έκανε έρευνα, τον ειδοποίησε για το γεγονός. «Ήταν αρκετά ανατριχιαστικό», ο καθηγητής είπε ο Washington Post. «Ένας ισχυρισμός αυτού του είδους είναι απίστευτα επιβλαβής».
Δεν νομίζω ότι περιπτώσεις όπως αυτές ακυρώνουν τις δυνατότητες του ChatGPT και άλλων chatbot. Στο σωστό σενάριο και με τις κατάλληλες διασφαλίσεις, είναι σαφές ότι αυτά τα εργαλεία μπορούν να είναι φανταστικά χρήσιμα. Πιστεύω επίσης ότι αυτή η δυνατότητα περιλαμβάνει εργασίες όπως η ανάκτηση πληροφοριών. Υπάρχουν όλα τα είδη ενδιαφέρουσα έρευνα Αυτό δείχνει πώς αυτά τα συστήματα μπορούν και θα γίνουν πιο τεκμηριωμένα στο μέλλον. Το θέμα είναι ότι αυτή τη στιγμή δεν είναι αρκετό.
Σε αυτό φταίνε εν μέρει τα ΜΜΕ. Πολλές αναφορές για το ChatGPT και παρόμοια ρομπότ απεικονίζουν αυτά τα συστήματα ως ανθρώπινες νοημοσύνη με συναισθήματα και επιθυμίες. Συχνά, οι δημοσιογράφοι αποτυγχάνουν να τονίσουν την αναξιοπιστία αυτών των συστημάτων — για να καταστήσουν σαφή την ενδεχόμενη φύση των πληροφοριών που προσφέρουν.
Οι άνθρωποι χρησιμοποιούν το ChatGPT ως μηχανή αναζήτησης. Το OpenAI πρέπει να το αναγνωρίσει αυτό και να το προειδοποιήσει εκ των προτέρων
Αλλά, όπως ελπίζω ότι η αρχή αυτού του κομματιού κατέστησε σαφές, το OpenAI θα μπορούσε σίγουρα να βοηθήσει επίσης τα θέματα. Αν και τα chatbots παρουσιάζονται ως ένας νέος τύπος τεχνολογίας, είναι σαφές ότι οι άνθρωποι τα χρησιμοποιούν ως μηχανές αναζήτησης. (Και πολλά δρομολογούνται ρητά όπως και Οι μηχανές αναζήτησης, οπότε φυσικά μπερδεύονται.) Αυτό δεν προκαλεί έκπληξη: μια γενιά χρηστών του Διαδικτύου έχουν εκπαιδευτεί να πληκτρολογούν ερωτήσεις σε ένα πλαίσιο και να λαμβάνουν απαντήσεις. Ωστόσο, ενώ πηγές όπως η Google και το DuckDuckGo παρέχουν συνδέσμους που καλούν τον έλεγχο, τα chatbot μπερδεύουν τις πληροφορίες τους σε αναδημιουργημένο κείμενο και μιλούν με τον πιο έξυπνο τόνο ενός ψηφιακού βοηθού που γνωρίζει τα πάντα. Μια ή δύο προτάσεις ως αποποίηση ευθυνών δεν αρκούν για να παρακάμψουν αυτό το είδος εκκίνησης.
Είναι ενδιαφέρον ότι βρίσκω ότι το chatbot του Bing (το οποίο τροφοδοτείται από την ίδια τεχνολογία με το ChatGPT) τα καταφέρνει ελαφρώς καλύτερα σε αυτού του είδους τις εργασίες εύρεσης δεδομένων. ως επί το πλείστον, τείνει να αναζητά στον Ιστό απαντώντας σε πραγματικές ερωτήσεις και παρέχει στους χρήστες συνδέσμους ως πηγές. ChatGPT μπορώ αναζητήστε στον ιστό, αλλά μόνο εάν πληρώνετε για την έκδοση Plus και χρησιμοποιείτε τις προσθήκες beta. Η αυτοτελής φύση του το κάνει πιο πιθανό να παραπλανήσει.
Οι παρεμβάσεις δεν χρειάζεται να είναι περίπλοκες, αλλά πρέπει να είναι εκεί. Γιατί, για παράδειγμα, το ChatGPT απλώς δεν μπορεί να αναγνωρίσει πότε του ζητείται να δημιουργήσει πραγματικές αναφορές και να προειδοποιήσει τον χρήστη να «ελέγχει τις πηγές μου»; Γιατί δεν μπορεί να απαντήσει σε κάποιον που ρωτά “αυτό το κείμενο δημιουργείται από AI;” με ένα ξεκάθαρο «συγγνώμη, δεν είμαι ικανός να κάνω αυτή την κρίση»; (Επικοινωνήσαμε με το OpenAI για σχόλια και θα ενημερώσουμε αυτήν την ιστορία αν μάθουμε ξανά.)
Το OpenAI έχει σίγουρα βελτιωθεί σε αυτόν τον τομέα. Από την κυκλοφορία του ChatGPT, σύμφωνα με την εμπειρία μου, έχει γίνει πολύ πιο ενημερωμένο σχετικά με τους περιορισμούς του, προτάσσοντας συχνά τις απαντήσεις με αυτό το shibboleth της τεχνητής νοημοσύνης: “Ως μοντέλο γλώσσας AI…” Αλλά είναι επίσης ασυνεπές. Σήμερα το πρωί, όταν ρώτησα το bot “μπορείτε να εντοπίσετε κείμενο που δημιουργείται από AI;” προειδοποίησε ότι «δεν ήταν αλάνθαστο», αλλά στη συνέχεια, όταν του έβαλα ένα κομμάτι αυτής της ιστορίας και έκανα την ίδια ερώτηση, απάντησε απλώς: «Ναι, αυτό το κείμενο δημιουργήθηκε από AI». Στη συνέχεια, του ζήτησα να μου δώσει μια λίστα με συστάσεις βιβλίων για το θέμα της μέτρησης (κάτι που ξέρω λίγο σχετικά με). “Σίγουρα!” είπε πριν προσφέρει 10 προτάσεις. Ήταν μια καλή λίστα, που χτύπησε πολλά από τα κλασικά, αλλά δύο τίτλοι είχαν κατασκευαστεί εξ ολοκλήρου, και αν δεν ήξερα να ελέγξω, δεν θα το είχα προσέξει. Δοκιμάστε μόνοι σας παρόμοια τεστ και θα τα καταφέρετε qδυστυχώς εύρεση σφαλμάτων.
Με αυτό το είδος απόδοσης, μια δήλωση αποποίησης ευθύνης όπως “Μπορεί περιστασιακά να δημιουργεί εσφαλμένες πληροφορίες” απλώς δεν φαίνεται ακριβής.