Τα chatbot της Google και της Microsoft συμμετέχουν στη συλλογή στατιστικών για το Super Bowl
Εάν χρειαζόσασταν περισσότερες αποδείξεις ό
τι
το GenAI είναι επιρρεπές στο να φτιάχνει πράγματα, το chatbot Gemini της
Google
, πρώην Bard, πιστεύει ότι
το Super Bowl
του 2024 έχει ήδη συμβεί. Έχει ακόμη και τα (φανταστικά) στατιστικά στοιχεία για να το υποστηρίξει.
Σύμφωνα με ένα Reddit
Νήμα
, ο Gemini, που υποστηρίζεται από τα ομώνυμα μοντέλα GenAI της Google, απαντά σε ερωτήσεις σχετικά με το Super Bowl LVIII σαν το παιχνίδι να ολοκληρώθηκε χθες — ή εβδομάδες πριν. Όπως πολλές εταιρείες στοιχημάτων, φαίνεται να ευνοεί τους Chiefs έναντι των 49ers (συγγνώμη, οπαδοί του Σαν Φρανσίσκο).
Ο Gemini διακοσμεί αρκετά δημιουργικά, σε τουλάχιστον μία περίπτωση δίνοντας ανάλυση στατιστικών σε έναν παίκτη που υποδηλώνει ότι ο στρατηγός του Kansas Chief, Patrick Mahomes, έτρεξε 286 γιάρδες για δύο touchdown και μια αναχαίτιση έναντι των 253 γιάρδων τρεξίματος και ενός touchdown του Brock Purdy.
Συντελεστές εικόνας:
/r/smellymonster
(ανοίγει σε νέο παράθυρο)
Δεν είναι μόνο ο Δίδυμος. Το chatbot Copilot της
Microsoft
, επίσης, επιμένει ότι το παιχνίδι έληξε και παρέχει εσφαλμένες αναφορές για να υποστηρίξει τον ισχυρισμό. Αλλά — ίσως αντικατοπτρίζει μια προκατάληψη του Σαν Φρανσίσκο! — λέει ότι οι 49ers, όχι οι Chiefs, βγήκαν νικητές «με τελικό σκορ 24-21».
Συντελεστές εικόνας:
Kyle Wiggers / TechCrunch
Το Copilot τροφοδοτείται από ένα μοντέλο GenAI παρόμοιο, αν όχι πανομοιότυπο, με το μοντέλο που υποστηρίζει το ChatGPT του OpenAI (GPT-4). Αλλά στις δοκιμές μου, το ChatGPT δεν ήθελε να κάνει το ίδιο λάθος.
Συντελεστές εικόνας:
Kyle Wiggers / TechCrunch
Όλα είναι μάλλον ανόητα — και πιθανόν να έχουν επιλυθεί μέχρι τώρα, δεδομένου ότι αυτός ο δημοσιογράφος δεν είχε την τύχη να αναπαράγει τις απαντήσεις των Gemini στο νήμα του Reddit. (Θα ήμουν σοκαρισμένος αν η Microsoft δεν εργαζόταν επίσης σε μια επιδιόρθωση.) Αλλά δείχνει επίσης τους σημαντικότερους περιορισμούς του σημερινού GenAI — και τους κινδύνους της υπερβολικής εμπιστοσύνης σε αυτό.
Τα μοντέλα GenAI δεν έχουν πραγματική νοημοσύνη. Τροφοδοτώντας έναν τεράστιο αριθμό παραδειγμάτων που συνήθως προέρχονται από τον δημόσιο ιστό, τα μοντέλα τεχνητής νοημοσύνης μαθαίνουν πόσο πιθανό είναι να προκύψουν δεδομένα (π.χ. κείμενο) βάσει μοτίβων, συμπεριλαμβανομένου του πλαισίου οποιωνδήποτε περιβαλλόντων δεδομένων.
Αυτή η προσέγγιση που βασίζεται σε πιθανότητες λειτουργεί εξαιρετικά καλά σε κλίμακα. Αλλά ενώ το εύρος των λέξεων και οι πιθανότητες τους είναι
πιθανός
για να καταλήξουμε σε κείμενο που έχει νόημα, δεν είναι καθόλου σίγουρο.
Τα LLM μπορούν να δημιουργήσουν κάτι που είναι γραμματικά σωστό αλλά παράλογο, για παράδειγμα – όπως ο ισχυρισμός για το Golden Gate. Ή μπορούν να εκτοξεύσουν ανακρίβειες, διαδίδοντας ανακρίβειες στα δεδομένα της προπόνησής τους.
Η παραπληροφόρηση του Super Bowl σίγουρα δεν είναι το πιο επιβλαβές παράδειγμα της αποτυχίας του GenAI. Αυτή η διάκριση πιθανώς έγκειται
επικυρώνοντας
βασανιστήριο,
ενισχυτικό
εθνοτικά και φυλετικά στερεότυπα ή
γράφοντας πειστικά
για τις θεωρίες συνωμοσίας.
Είναι, ωστόσο, μια χρήσιμη υπενθύμιση για τον διπλό έλεγχο των δηλώσεων από τα bots GenAI. Υπάρχει μεγάλη πιθανότητα να μην είναι αλήθεια.
VIA:
techcrunch.com
