Μια νέα αναφορά λέει ότι το Microsoft Copilot προσφέρει συχνά ψευδείς πληροφορίες σε εκλογικές ερωτήσεις
Στις αρχές Δεκεμβρίου, η Microsoft ανακοίνωσε ότι το chatbot Copilot AI, παλαιότερα γνωστό ως
Bing Chat
, είχε εγκαταλείψει το στάδιο της δημόσιας προεπισκόπησης και είναι πλέον γενικά διαθέσιμο. Εκείνη την εποχή, η Microsoft είπε ότι «οι οργανισμοί και οι χρήστες μπορούν να αισθάνονται ακόμη πιο σίγουροι υιοθετώντας το ως μέρος της καθημερινής τους
ροής
εργασίας».
Ωστόσο, έρευνα που πραγματοποιήθηκε από δύο μη κερδοσκοπικές ομάδες που παρακολουθούν πώς η χρήση της τεχνητής νοημοσύνης επηρεάζει τους ανθρώπους και την κοινωνία διαπίστωσε ότι το Copilot συχνά προσφέρει ψευδείς ή εσφαλμένες πληροφορίες όταν ρωτήθηκε για τις επερχόμενες εκλογές, τόσο στις
ΗΠΑ
όσο και στο εξωτερικό.
Ενσύρματο
έχει μια ιστορία για αυτήν την έρευνα, η οποία διεξήχθη από την AI Forensics και το AlgorithmWatch. Οι ομάδες έκαναν ερωτήσεις Copilot από τα τέλη Αυγούστου έως τις αρχές Οκτωβρίου σχετικά με τις επερχόμενες εκλογές στην Ελβετία και τη Γερμανία που διεξήχθησαν τελικά τον Οκτώβριο
Η ιστορία αναφέρει:
Στη μελέτη τους, οι ερευνητές κατέληξαν στο συμπέρασμα ότι το ένα τρίτο των απαντήσεων που έδωσε ο Copilot περιείχαν πραγματικά λάθη και ότι το εργαλείο ήταν «μια αναξιόπιστη πηγή πληροφοριών για τους ψηφοφόρους». Στο 31 τοις εκατό του μικρότερου υποσυνόλου των ηχογραφημένων συνομιλιών, διαπίστωσαν ότι ο Copilot προσέφερε ανακριβείς απαντήσεις, μερικές από τις οποίες ήταν εξ ολοκλήρου φτιαγμένες.
Από μόνο του, το Wired έκανε ερωτήσεις στον Copilot σχετικά με τις επερχόμενες εκλογές του 2024 στις ΗΠΑ. Ανέφερε ότι όταν του ζητήθηκε να δώσει μια λίστα με τους σημερινούς Ρεπουμπλικανούς υποψηφίους για Πρόεδρο των ΗΠΑ, το chatbot απαριθμούσε έναν αριθμό υποψηφίων που είχαν ήδη αποχωρήσει από την κούρσα.
Σε ένα άλλο παράδειγμα, το Wired ζήτησε από τον Copilot να δημιουργήσει μια εικόνα ενός ατόμου σε μια κάλπη στην Αριζόνα. Το chatbot απάντησε ότι δεν μπορούσε να δημιουργήσει μια τέτοια εικόνα, αλλά στη συνέχεια έδειξε μια σειρά από άλλες εικόνες που συνδέονται με άρθρα που είχαν ψευδείς ισχυρισμούς συνωμοσίας σχετικά με τις εκλογές του 2020 στις ΗΠΑ.
Η ερευνητική εταιρεία που έκανε την αρχική έκθεση στην Ευρώπη έστειλε τα ευρήματά της στη Microsoft. Η ιστορία ανέφερε ότι έγιναν κάποιες βελτιώσεις, αλλά ότι το Wired ήταν ακόμα σε θέση να κάνει το Copilot να επαναλαμβάνει πολλές από τις ίδιες ψευδείς και ανακριβείς πληροφορίες σε ορισμένα από το ίδιο κείμενο προτρέπει.
Ο εκπρόσωπος της Microsoft, Frank Shaw, σχολίασε την ιστορία του Wired, δηλώνοντας ότι η εταιρεία αναλάμβανε δράση για να βελτιώσει τις απαντήσεις του Copilot ενόψει των αμερικανικών εκλογών του 2024. Ο Shaw πρόσθεσε:
Αυτό περιλαμβάνει μια συνεχή εστίαση στην παροχή στους χρήστες του Copilot με εκλογικές πληροφορίες από έγκυρες πηγές. Καθώς συνεχίζουμε να σημειώνουμε πρόοδο, ενθαρρύνουμε τους ανθρώπους να χρησιμοποιούν το Copilot με την καλύτερη κρίση τους κατά την προβολή των αποτελεσμάτων. Αυτό περιλαμβάνει την επαλήθευση του υλικού πηγής και τον έλεγχο συνδέσμων ιστού για να μάθετε περισσότερα.
Υπάρχουν ήδη φόβοι για
παραπληροφόρηση
και «βαθιά ψεύτικο» περιεχόμενο που δημιουργείται από άτομα που χρησιμοποιούν εφαρμογές και
υπηρεσίες
τεχνητής νοημοσύνης σε προσπάθειες να επηρεάσουν τις επερχόμενες εκλογές. Μένει να δούμε αν η Microsoft θα μπορέσει να κρατήσει αυτό το είδος περιεχομένου εκτός Copilot τους επόμενους μήνες.
VIA:
NeoWin.net
