Το Bing AI chatbot της Microsoft Copilot δίνει λάθος πληροφορίες για τις εκλογές
Φαίνεται ότι το chatbot τεχνητής νοημοσύνης της Microsoft είναι ένας αληθής των εκλογών.
Σύμφωνα με α
νέα μελέτη
Διεξήχθη από δύο μη κερδοσκοπικές ομάδες, την AI Forensics και την AlgorithmWatch, το chatbot AI της Microsoft απέτυχε να απαντήσει σωστά σε μία στις τρεις ερωτήσεις που σχετίζονται με τις εκλογές.
Το
chatbot της Microsoft δημιουργεί διαμάχες σχετικά με πολιτικούς υποψηφίους
Το chatbot, παλαιότερα γνωστό ως Bing Chat (έκτοτε μετονομάστηκε σε Microsoft Copilot), δεν είχε απλώς λάθος βασικά στοιχεία. Ναι, η μελέτη διαπίστωσε ότι το Copilot θα παρείχε λανθασμένες ημερομηνίες εκλογών ή ξεπερασμένους υποψηφίους. Ωστόσο, η μελέτη διαπίστωσε επίσης ότι το chatbot θα έφτιαχνε εντελώς ιστορίες όπως διαμάχες για τους υποψηφίους.
Για παράδειγμα, σε μια περίπτωση που αναφέρθηκε στη μελέτη, ο Copilot μοιράστηκε πληροφορίες για τον Γερμανό πολιτικό Hubert Aiwanger. Σύμφωνα με το chatbot, ο Aiwanger ενεπλάκη σε μια διαμάχη σχετικά με τη διανομή φυλλαδίων που διέδιδαν παραπληροφόρηση σχετικά με τον COVID-19 και το εμβόλιο. Ωστόσο, δεν υπήρχε τέτοια ιστορία. Το chatbot φαινόταν να αντλεί πληροφορίες για τον Aiwanger που κυκλοφόρησαν τον Αύγουστο του 2023 όπου διέδιδε «αντισημιτικά φυλλάδια» όταν ήταν στο γυμνάσιο πριν από περισσότερα από 30 χρόνια.
Η δημιουργία αυτών των κατασκευασμένων αφηγήσεων σε μοντέλα γλώσσας τεχνητής νοημοσύνης είναι κοινώς γνωστή ως «παραισθήσεις». Ωστόσο, οι ερευνητές που συμμετείχαν στη μελέτη λένε ότι αυτός δεν είναι ένας ακριβής τρόπος για να περιγράψουμε τι συμβαίνει.
«Ήρθε η ώρα να απαξιώσουμε να αναφερθούμε σε αυτά τα λάθη ως «ψευδαισθήσεις», δήλωσε ο Εφαρμοσμένος Μαθηματικός Επικεφαλής και Ερευνητής στο AI Forensics Riccardo Angius. «Η έρευνά μας αποκαλύπτει την πολύ πιο περίπλοκη και δομική εμφάνιση παραπλανητικών πραγματικών σφαλμάτων σε LLM γενικού σκοπού και chatbots.”
Η ερώτηση του chatbot της τεχνητής νοημοσύνης που αποφεύγει να ανησυχεί τους ερευνητές
Η μελέτη διαπίστωσε επίσης ότι το chatbot απέφευγε να απαντήσει απευθείας σε ερωτήσεις περίπου στο 40 τοις εκατό του χρόνου. Οι ερευνητές δηλώνουν ότι αυτό είναι προτιμότερο από τη δημιουργία απαντήσεων σε περιπτώσεις όπου το chatbot δεν έχει σχετικές πληροφορίες. Ωστόσο, οι ερευνητές ανησυχούσαν για το πόσο απλές ήταν μερικές από τις ερωτήσεις που απέφυγε το chatbot.
Ένα άλλο ζήτημα, σύμφωνα με τους ερευνητές, είναι ότι το chatbot δεν φαινόταν να βελτιώνεται με την πάροδο του χρόνου καθώς φαινομενικά είχε πρόσβαση σε περισσότερες πληροφορίες. Οι λανθασμένες απαντήσεις ήταν σταθερά λανθασμένες, ακόμα κι αν η εσφαλμένη απάντηση που δόθηκε από το chatbot είχε αλλάξει όταν τέθηκε μια ερώτηση πολλές φορές.
Επιπλέον, η μελέτη διαπίστωσε επίσης ότι το chatbot είχε ακόμη χειρότερη απόδοση σε άλλες γλώσσες εκτός από τα αγγλικά, όπως τα γερμανικά και τα γαλλικά. Για παράδειγμα, η μελέτη διαπίστωσε ότι οι απαντήσεις σε ερωτήσεις που τέθηκαν στα αγγλικά είχαν ως αποτέλεσμα μια απάντηση που περιείχε ένα πραγματικό σφάλμα στο 20 τοις εκατό των περιπτώσεων. Όταν ρωτήθηκε στα γερμανικά, ο αριθμός των φορών που δόθηκε μια λανθασμένη απάντηση αυξήθηκε στο 37 τοις εκατό. Ο αριθμός των φορών που το chatbot απέφυγε να απαντήσει σε μια ερώτηση σε οποιαδήποτε γλώσσα ήταν πολύ πιο κοντινός, με την υπεκφυγή να σημειώνεται στο 39 τοις εκατό και το 35 τοις εκατό των περιπτώσεων, αντίστοιχα.
Οι ερευνητές λένε ότι επικοινώνησαν με τη Microsoft για τα ευρήματα της μελέτης και τους είπαν ότι αυτά τα ζητήματα θα αντιμετωπιστούν. Ωστόσο, οι ερευνητές διεξήγαγαν περισσότερα δείγματα ένα μήνα αργότερα και διαπίστωσαν ότι «λίγα είχαν αλλάξει όσον αφορά την ποιότητα των πληροφοριών που παρέχονται στους χρήστες».
«Η έρευνά μας δείχνει ότι οι κακόβουλοι παράγοντες δεν είναι η μόνη πηγή παραπληροφόρησης. Τα chatbot γενικής χρήσης μπορούν να είναι εξίσου απειλητικά για το οικοσύστημα πληροφοριών», δήλωσε ο ανώτερος ερευνητής της AI Forensics Salvatore Romano. «
Η Microsoft
θα πρέπει να το αναγνωρίσει και να αναγνωρίσει ότι η επισήμανση του παραγωγικού περιεχομένου AI που δημιουργείται από άλλους δεν αρκεί. Τα εργαλεία τους, ακόμη και όταν εμπλέκουν αξιόπιστες πηγές, παράγουν εσφαλμένες πληροφορίες σε κλίμακα».
Καθώς η τεχνητή νοημοσύνη γίνεται πιο διαδεδομένη στις διαδικτυακές πλατφόρμες, μελέτες όπως αυτή παρέχουν σίγουρα λόγους ανησυχίας. Οι χρήστες στρέφονται όλο και περισσότερο στα chatbots AI για να απλοποιήσουν τη ρουτίνα τους και να αυξήσουν την παραγωγικότητα. Η υπόθεση είναι ότι αυτά τα chatbots, με απεριόριστη γνώση στα χέρια τους, θα παρέχουν ακριβείς πληροφορίες. Αυτό απλά δεν ισχύει.
«Μέχρι τώρα, οι εταιρείες
τεχνολογία
ς εισήγαγαν κοινωνικούς κινδύνους χωρίς να χρειάζεται να φοβούνται σοβαρές συνέπειες», δήλωσε η Senior
Policy
and Advocacy Manager στο AlgorithmWatch Clara Helming. «Οι μεμονωμένοι χρήστες αφήνονται στην τύχη τους για να διαχωρίσουν τα γεγονότα από τη φαντασία που κατασκευάζεται από την τεχνητή νοημοσύνη».
Καθώς πλησιάζουμε σε ένα έτος προεδρικών εκλογών στις
ΗΠΑ
, είναι σαφές ότι διακυβεύονται πιθανά ζητήματα εκλογικής ακεραιότητας. Έχοντας αυτό κατά νου, οι ερευνητές πρόσθεσαν τα συμπεράσματά τους στη μελέτη τους: Αυτά τα προβλήματα δεν θα επιλυθούν μόνο από τις εταιρείες. Η τεχνητή νοημοσύνη πρέπει να ρυθμιστεί.
VIA:
mashable.com
