Οι Φάρμες Περιεχομένου χρησιμοποιούν Chatbots AI για λογοκλοπή ειδήσεων

Οι φάρμες διαδικτυακού περιεχομένου χρησιμοποιούν chatbots AI για να «ανακατέψουν και να ξαναγράψουν» χιλιάδες ειδήσεις από μεγάλες εκδόσεις όπως οι New York Times και να τις αναδημοσιεύσουν για να κερδίσουν διαφημιστικά έσοδα.


σύμφωνα με α


νέα αναφορά από την παρακολούθηση παραπληροφόρησης

NewsGuard. Οι ιστορίες, οι οποίες συχνά επαναχρησιμοποίησαν ολόκληρες γραμμές απευθείας από άλλα άρθρα χωρίς πίστωση, βρέθηκαν σε 37 διαφορετικούς ιστότοπους. Σε ορισμένες περιπτώσεις, σημειώνει το NewsGuard, αυτοί οι ιστότοποι φαινόταν να είναι πλήρως αυτοματοποιημένοι,

δεν εμπλέκονται άνθρωποι.

Το NewsGuard, που κάνει μια επέκταση προγράμματος περιήγησης να αξιολογεί την αξιοπιστία των ειδησεογραφικών ιστότοπων, λέει ότι τα αγροκτήματα περιεχομένου που εντόπισε χρησιμοποιούσαν chatbots για να ξαναγράψουν ιστορίες που δημοσιεύτηκαν για πρώτη φορά στο CNN, το Reuters και άλλα κύρια καταστήματα. Αυτή η ρητή εξάρτηση από το κείμενο των ήδη επεξεργασμένων και δημοσιευμένων ιστοριών σημαίνει ότι η ποιότητα της γραφής στα λογοκλοπή άρθρα τεχνητής νοημοσύνης σηματοδότησε μια βελτίωση από

Προηγούμενες περιπτώσεις όπου οι εταιρείες παραγωγής περιεχομένου έδωσαν απλώς οδηγίες στα μοντέλα AI να δημιουργήσουν ιστορίες

χωρίς κανένα

πηγή. Το αποτέλεσμα, είπε ο NewsGuard, ήταν άρθρα που δεν θα μπορούσαν να διακριθούν σχεδόν καθόλου από μια αυθεντική ιστορία στον μέσο αναγνώστη.

Η αναφορά εντόπισε 37 ιστότοπους που επαναχρησιμοποιούσαν ειδήσεις, αλλά το NewsGuard λέει ότι ο πραγματικός αριθμός θα μπορούσε να είναι πολύ, πολύ μεγαλύτερος. Το NewsGuard μπόρεσε να αναγνωρίσει μόνο τους εν λόγω ιστότοπους επειδή καθένας από αυτούς περιείχε τουλάχιστον ένα άρθρο με ένα κοινό μήνυμα σφάλματος

, όπως “Ως μοντέλο τεχνητής νοημοσύνης δεν μπορώ να ξαναγράψω αυτόν τον τίτλο”. Αλλά άλλοι ιστότοποι που χρειάζονται λίγο χρόνο για να αφαιρέσουν αυτά τα ενδεικτικά σημάδια θα μπορούσαν να περάσουν εντελώς απαρατήρητοι.

“Υπάρχουν πιθανώς εκατοντάδες – αν όχι χιλιάδες – ιστότοποι που χρησιμοποιούν

για να ανεβάσουν

από εξωτερικές πηγές που το NewsGuard δεν μπορούσε να εντοπίσει επειδή δεν δημοσίευσαν κατά λάθος ένα μήνυμα σφάλματος AI”, έγραψε ο NewsGuard. Το

δεν μπόρεσε να επαληθεύσει ανεξάρτητα τις 37 τοποθεσίες που εντοπίστηκαν. Το NewsGuard δεν απάντησε αμέσως στο αίτημά μας για περαιτέρω

σχόλιο.

Αυτοί οι ιστότοποι διέφεραν ευρέως ως προς το θέμα, με ορισμένους να επικεντρώνονται στην επιστήμη και το διάστημα και άλλους στον αθλητισμό και την πολιτική ή τις έκτακτες ειδήσεις. Αρκετοί από τους ιστότοπους παρουσίαζαν ονόματα όπως DailyHeadliner.com και TalkGlitz.com. Ένας από τους ιστότοπους, που ονομάζεται WhatsNew2Day.com, φάνηκε να έχει γράψει ένα άρθρο σχετικά με την τεχνητή νοημοσύνη βασισμένο σε


Άρθρο της 21ης ​​Ιουνίου στο The Verge


κατά ειρωνικό τρόπο, σχετικά με τις διαφημίσεις που προβάλλονται σε ειδήσεις που δημιουργούνται από AI.

Σε πολλές περιπτώσεις, αυτά τα λογοκλοπή άρθρα χρησιμοποιούνται για τη δημιουργία διαφημιστικών εσόδων από μεγάλες μάρκες. Η NewGuard ισχυρίζεται ότι ανακάλυψε διαφημίσεις μέσω προγραμματισμού από 55 εταιρείες blue-chip που εκτελούνται σε 15 από τους 37 ιστότοπους που αναλύθηκαν. Αυτό σημαίνει ότι οι μάρκες, εν γνώσει τους ή όχι, χρηματοδοτούν άμεσα

αυτά τα έργα λογοκλοπής AI. Το NewsGuard δεν απάντησε στο Gizmodo

το αίτημα για σχολιασμό αναζητώντας τα ονόματα των εμπορικών σημάτων blue-chip που προσδιορίστηκαν.

«Επειδή η διαδικασία διαφήμισης μέσω προγραμματισμού – η οποία χρησιμοποιεί αλγόριθμους για την παροχή άκρως στοχευμένων διαφημίσεων στους χρήστες στο Διαδίκτυο – είναι τόσο αδιαφανής, οι διαφημιστικές επωνυμίες πιθανότατα δεν έχουν ιδέα ότι χρηματοδοτούν τον πολλαπλασιασμό αυτών των ιστότοπων αντιγραφής AI», πρόσθεσε ο NewsGuard.

Δεν είναι σαφές ποια ακριβώς μοντέλα AI χρησιμοποιήθηκαν για τη δημιουργία αυτών των λογοκλοπών, αλλά η Gizmodo επιβεβαίωσε ότι μπορεί να επιτευχθεί εύκολα χρησιμοποιώντας τα πιο δημοφιλή εργαλεία που είναι διαθέσιμα από την Google και το OpenAI. Σε μια

, ρώτησε ο Gizmodo

Google Bard

να ξαναγράψει

αυτή η πρόσφατη ιστορία του Gizmodo

σχετικά με μια σχεδόν σύγκρουση στον κλάδο των αεροπορικών εταιρειών για να είναι πιο φιλική προς το SEO. Ο Μπαρντ απάντησε γρήγορα λέγοντας «Σίγουρα, εδώ είναι το ξαναγραμμένο άρθρο ειδήσεων» προτού παράσχει ένα συντομευμένο 258-

λέξη ιστορία. Το NewsGuard βρήκε παρόμοια αποτελέσματα όταν ζήτησε από το ChatGPT να ξαναγράψει ένα άρθρο των New York Times.

Τόσο το OpenAI όσο και η Google έχουν πολιτικές που απαγορεύουν στους χρήστες να χρησιμοποιούν τα μοντέλα τους για να εμπλακούν σε λογοκλοπή ή να βοηθήσουν στην “Παραπούσια δήλωση της προέλευσης του παραγόμενου περιεχομένου”. Αλλά αυτές οι πολιτικές, προς το παρόν, φαίνονται σαν απλές προτάσεις.

Ούτε το OpenAI ούτε η Google απάντησαν στα αιτήματα του Gizmodo για σχολιασμό.


Η βιομηχανία ειδήσεων παλεύει με την τεχνητή νοημοσύνη

Η συγκέντρωση ειδήσεων και τα ελαιοτριβεία περιεχομένου δεν είναι καινούργια και προγενέστερα του τρέχοντος κύματος εκρήξεων, που αναπτύσσουν γρήγορα μεγάλα γλωσσικά μοντέλα όπως το ChatGPT του OpenAI και το Bard της Google. Ωστόσο, η ταχύτητα με την οποία αυτά τα μοντέλα μπορούν να αναδημιουργήσουν ιστορίες, συνήθως μέσα σε λίγα δευτερόλεπτα, σημαίνει ότι οι κακοί ηθοποιοί που θέλουν να γεμίσουν γρήγορα ιστοτόπους με αντιγραμμένο περιεχόμενο μπορούν να δημιουργήσουν εκατοντάδες ή χιλιάδες ή άρθρα σε μια μέρα, όλα δυνητικά απορροφώντας κάποια διαφημιστικά έσοδα.

Οι παραδοσιακοί εκδότες ειδήσεων, εν τω μεταξύ, παλεύουν με τον αντίκτυπο που θα έχει η τεχνητή νοημοσύνη στις αίθουσες σύνταξης. Τεχνικές εκδόσεις όπως

CNET

και

οι υπολοιποι

, έχουν πιαστεί να χρησιμοποιούν τεχνητή νοημοσύνη για τη δημιουργία άρθρων χωρίς να εξηγούν ξεκάθαρα πώς δημιουργούνται. Κάποιοι σαν

Γνώστης

, έχουν αρχίσει να εργάζονται με εργαλεία τεχνητής νοημοσύνης για να συλλάβουν ιδέες για ιστορίες και να προτείνουν ερωτήσεις συνέντευξης. Ωστόσο, δεν είναι όλοι στο τρένο ειδήσεων AI. Την περασμένη εβδομάδα, το Associated Press


είπε οποιαδήποτε παραγωγή παράγεται


από μια τεχνητή νοημοσύνη θα πρέπει «να αντιμετωπίζεται ως μη επαληθευμένο υλικό πηγής». Ακόμη και τα καλύτερα μοντέλα AI είναι γνωστά

παραισθησιογόνα γεγονότα

και είναι σχεδόν βέβαιο ότι έχουν εκπαιδευτεί σε υλικό που προστατεύεται από πνευματικά δικαιώματα, καθιστώντας τους εφιάλτη για την ηθική δημοσιογραφία.

Οι New York Times απώθησαν τις εταιρείες τεχνητής νοημοσύνης νωρίτερα αυτόν τον μήνα

τροποποίηση των πολιτικών Όρων Παροχής Υπηρεσιών

να απαγορεύει ρητά στις εταιρείες να χρησιμοποιούν τα αρχεία τους για την εκπαίδευση μηχανικής μάθησης ή συστημάτων τεχνητής νοημοσύνης. Τώρα, φαίνεται ότι οι Times μπορεί να είναι

προσαγωγή του OpenAI στο δικαστήριο

σχετικά με το ζήτημα της απόξεσης δεδομένων.



gizmodo.com


Leave A Reply



Cancel Reply

Your email address will not be published.