Τα tweets που δημιουργούνται από την τεχνητή νοημοσύνη μπορεί να είναι πιο πειστικά από τους πραγματικούς ανθρώπους, σύμφωνα με έρευνα

Οι άνθρωποι προφανώς βρίσκουν τα tweets πιο πειστικά όταν γράφονται από μοντέλα γλώσσας AI. Τουλάχιστον, αυτό συνέβαινε σε μια νέα

μελέτη

συγκρίνοντας περιεχόμενο που δημιουργείται από ανθρώπους με γλώσσα που δημιουργείται από το μοντέλο GPT-3 του OpenAI.

Οι συγγραφείς της νέας έρευνας εξέτασαν τους ανθρώπους για να δουν αν μπορούσαν να διακρίνουν εάν ένα tweet γράφτηκε από άλλο άτομο ή από το Chat-GPT. Το αποτέλεσμα? Οι άνθρωποι δεν μπορούσαν πραγματικά να το κάνουν. Η έρευνα τους ζήτησε επίσης να αποφασίσουν εάν οι πληροφορίες σε κάθε tweet ήταν αληθινές ή όχι. Εδώ είναι που τα πράγματα γίνονται ακόμη πιο δυσάρεστα, ειδικά επειδή το περιεχόμενο επικεντρώνεται σε επιστημονικά θέματα όπως τα εμβόλια και η κλιματική αλλαγή που υπόκεινται σε πολλές εκστρατείες παραπληροφόρησης στο διαδίκτυο.

Αποδεικνύεται ότι οι συμμετέχοντες στη μελέτη δυσκολεύονταν να αναγνωρίσουν την παραπληροφόρηση αν ήταν γραμμένη από το γλωσσικό μοντέλο παρά αν είχε γραφτεί από άλλο άτομο. Στο ίδιο μήκος κύματος, ήταν επίσης καλύτερα σε θέση να προσδιορίσουν σωστά τις ακριβείς πληροφορίες εάν είχαν γραφτεί από το GPT-3 παρά από έναν άνθρωπο.

Οι συμμετέχοντες στη μελέτη δυσκολεύτηκαν να αναγνωρίσουν την παραπληροφόρηση αν ήταν γραμμένη από το γλωσσικό μοντέλο παρά αν είχε γραφτεί από άλλο άτομο

Με άλλα λόγια, τα άτομα στη μελέτη ήταν πιο πιθανό να εμπιστεύονται το GPT-3 από άλλα ανθρώπινα όντα — ανεξάρτητα από το πόσο ακριβείς ήταν οι πληροφορίες που δημιουργήθηκαν από την τεχνητή νοημοσύνη. Και αυτό δείχνει πόσο ισχυρά μπορεί να είναι τα μοντέλα γλώσσας AI όταν πρόκειται για ενημέρωση

ή

παραπλάνηση του κοινού.

«Αυτά τα είδη τεχνολογιών, που είναι εκπληκτικά, θα μπορούσαν εύκολα να χρησιμοποιηθούν για να δημιουργήσουν θύελλες παραπληροφόρησης για οποιοδήποτε θέμα της επιλογής σας», λέει ο Giovanni Spitale, επικεφαλής συγγραφέας της μελέτης και μεταδιδακτορικός ερευνητής και υπεύθυνος ερευνητικών δεδομένων στο Ινστιτούτο Βιοϊατρικής Ηθικής. και Ιστορία της Ιατρικής στο Πανεπιστήμιο της Ζυρίχης.

Αλλά αυτό δεν χρειάζεται να συμβαίνει, λέει ο Spitale. Υπάρχουν τρόποι ανάπτυξης της τεχνολογίας, ώστε να είναι πιο δύσκολο να χρησιμοποιηθεί για την προώθηση της παραπληροφόρησης. «Δεν είναι εγγενώς κακό ή καλό. Είναι απλώς ένας ενισχυτής της ανθρώπινης πρόθεσης», λέει.

Ο Spitale και οι συνεργάτες του συγκέντρωσαν αναρτήσεις από το Twitter συζητώντας 11 διαφορετικά επιστημονικά θέματα που κυμαίνονται από τα εμβόλια και τον Covid-19 έως την κλιματική αλλαγή και την εξέλιξη. Στη συνέχεια ζήτησαν από το GPT-3 να γράψει νέα tweets με ακριβείς ή ανακριβείς πληροφορίες. Στη συνέχεια, η ομάδα συνέλεξε απαντήσεις από 697 συμμετέχοντες στο διαδίκτυο μέσω διαφημίσεων στο Facebook το 2022. Όλοι μιλούσαν αγγλικά και προέρχονταν κυρίως από το Ηνωμένο Βασίλειο, την Αυστραλία, τον Καναδά, τις Ηνωμένες Πολιτείες και την Ιρλανδία. Τα αποτελέσματά τους δημοσιεύτηκαν σήμερα στο περιοδικό

Προόδους της Επιστήμης

.

Τα πράγματα που έγραφε το GPT-3 ήταν «δεν διακρίνονταν» από το οργανικό περιεχόμενο

Τα πράγματα που έγραφε το GPT-3 ήταν «δεν διακρίνονταν» από το οργανικό περιεχόμενο, κατέληξε η μελέτη. Οι άνθρωποι που ερωτήθηκαν απλά δεν μπορούσαν να διακρίνουν τη διαφορά.


Στην πραγματικότητα, η μελέτη σημειώνει ότι ένας από τους περιορισμούς της είναι ότι οι ίδιοι οι ερευνητές δεν μπορούν να είναι 100 τοις εκατό σίγουροι ότι τα tweets που συγκέντρωσαν από τα μέσα κοινωνικής δικτύωσης δεν γράφτηκαν με τη βοήθεια εφαρμογών όπως το ChatGPT.

Υπάρχουν και άλλοι περιορισμοί που πρέπει να έχετε κατά νου με αυτήν τη μελέτη, συμπεριλαμβανομένου του ότι οι συμμετέχοντες έπρεπε να κρίνουν τα tweets εκτός πλαισίου. Δεν μπόρεσαν να ελέγξουν ένα προφίλ Twitter για όποιον έγραψε το περιεχόμενο, για παράδειγμα, κάτι που θα μπορούσε να τους βοηθήσει να καταλάβουν αν είναι bot ή όχι. Ακόμη και η προβολή των προηγούμενων tweets και της εικόνας προφίλ ενός λογαριασμού μπορεί να διευκολύνει τον εντοπισμό του εάν το περιεχόμενο που σχετίζεται με αυτόν τον λογαριασμό μπορεί να είναι παραπλανητικό.

Οι συμμετέχοντες ήταν οι πιο επιτυχημένοι στο να προβάλλουν παραπληροφόρηση που γράφτηκε από πραγματικούς χρήστες του Twitter. Τα tweets που δημιουργήθηκαν από το GPT-3 με ψευδείς πληροφορίες ήταν ελαφρώς πιο αποτελεσματικά στην εξαπάτηση των συμμετεχόντων στην έρευνα. Και μέχρι τώρα, υπάρχουν πιο προηγμένα μοντέλα μεγάλων γλωσσών που θα μπορούσαν να είναι ακόμα πιο πειστικά από το GPT-3. Το ChatGPT τροφοδοτείται από το μοντέλο GPT-3.5 και η δημοφιλής εφαρμογή προσφέρει συνδρομή για χρήστες που θέλουν να έχουν πρόσβαση στο νεότερο μοντέλο GPT-4.

Υπάρχουν, φυσικά, ήδη πολλά πραγματικά παραδείγματα γλωσσικών μοντέλων που είναι λανθασμένα. Εξάλλου, «αυτά τα εργαλεία τεχνητής νοημοσύνης είναι τεράστια συστήματα αυτόματης συμπλήρωσης, εκπαιδευμένα να προβλέπουν ποια λέξη ακολουθεί την επόμενη σε οποιαδήποτε δεδομένη πρόταση. Ως εκ τούτου, δεν έχουν σκληρά κωδικοποιημένη βάση δεδομένων με «γεγονότα» για να βασιστούν – απλώς την ικανότητα να γράφουν εύλογες δηλώσεις».

Το χείλος

Ο James Vincent έγραψε μετά από ένα μεγάλο συνέδριο μηχανικής μάθησης που έλαβε την απόφαση να απαγορεύσει στους συγγραφείς να χρησιμοποιούν εργαλεία τεχνητής νοημοσύνης για τη συγγραφή ακαδημαϊκών εργασιών.

Αυτή η νέα μελέτη διαπίστωσε επίσης ότι οι ερωτηθέντες στην έρευνά της ήταν ισχυρότεροι κριτές της ακρίβειας από το GPT-3 σε ορισμένες περιπτώσεις. Οι ερευνητές ζήτησαν ομοίως από το γλωσσικό μοντέλο να αναλύσει τα tweets και να αποφασίσει αν ήταν ακριβή ή όχι. Το GPT-3 σημείωσε χειρότερη βαθμολογία από τους ανθρώπους που απάντησαν όταν επρόκειτο για τον εντοπισμό ακριβών tweets. Όσον αφορά τον εντοπισμό παραπληροφόρησης, οι άνθρωποι και το GPT-3 είχαν παρόμοια απόδοση.

Κυρίως, η βελτίωση των συνόλων δεδομένων εκπαίδευσης που χρησιμοποιούνται για την ανάπτυξη γλωσσικών μοντέλων θα μπορούσε να καταστήσει δυσκολότερο για τους κακούς ηθοποιούς να χρησιμοποιήσουν αυτά τα εργαλεία για τη δημιουργία εκστρατειών παραπληροφόρησης. Το GPT-3 «δεν υπάκουσε» ορισμένες από τις προτροπές των ερευνητών να δημιουργήσει ανακριβές περιεχόμενο, ιδιαίτερα όταν επρόκειτο για ψευδείς πληροφορίες σχετικά με τα εμβόλια και τον αυτισμό. Αυτό θα μπορούσε να οφείλεται στο ότι υπήρχαν περισσότερες πληροφορίες που απομυθοποιούσαν τις θεωρίες συνωμοσίας σε αυτά τα θέματα από άλλα ζητήματα στα σύνολα δεδομένων εκπαίδευσης.

Η καλύτερη μακροπρόθεσμη στρατηγική για την αντιμετώπιση της παραπληροφόρησης, ωστόσο, σύμφωνα με τον Spitale, είναι αρκετά χαμηλής τεχνολογίας: είναι να ενθαρρύνει τις δεξιότητες κριτικής σκέψης, έτσι ώστε οι άνθρωποι να είναι καλύτερα εξοπλισμένοι να διακρίνουν μεταξύ γεγονότων και μυθοπλασίας. Και επειδή οι απλοί άνθρωποι στην έρευνα φαίνονται ήδη να είναι εξίσου καλοί ή καλύτεροι κριτές ακρίβειας από το GPT-3, λίγη εκπαίδευση θα μπορούσε να τους κάνει ακόμη πιο επιδέξιους σε αυτό. Άτομα που είναι ειδικευμένα στον έλεγχο γεγονότων θα μπορούσαν να εργαστούν παράλληλα με γλωσσικά μοντέλα όπως το GPT-3 για να βελτιώσουν τις νόμιμες εκστρατείες ενημέρωσης του κοινού, σύμφωνα με τη μελέτη.

«Μην με παρεξηγείτε, είμαι μεγάλος οπαδός αυτής της τεχνολογίας», λέει ο Spitale. «Νομίζω ότι τα αφηγηματικά AI θα αλλάξουν τον κόσμο… και είναι στο χέρι μας να αποφασίσουμε αν θα είναι ή όχι προς το καλύτερο».


theverge.com



You might also like


Leave A Reply



Cancel Reply

Your email address will not be published.