Η αρνητική επίδραση των άρθρων από AI στην αξιολόγηση του CNET στη Wikipedia
Τι πρέπει να ξέρετε
-
Με την ταχεία εμφάνιση και υιοθέτηση της τεχνητής νοημοσύνης, πολλές εκδόσεις ενσωμάτωσαν γρήγορα την τεχνολογία στη ροή
εργασία
ς τους και μάλιστα απέλυσαν μέρος του προσωπικού τους. - Η τεχνητή νοημοσύνη μπορεί να δημιουργήσει άρθρα ειδήσεων σε κλάσματα δευτερολέπτου, αλλά χωρίς να λαμβάνεται υπόψη η ακρίβεια, οι αποδόσεις ή ακόμα και η γραμματική.
- Το CNET είναι ένα από τα έντυπα που χρησιμοποίησαν την τεχνολογία για να γράψουν μερικά από τα άρθρα του.
- Αυτή η στρατηγική έχει επηρεάσει αρνητικά την αξιολόγησή της στη Wikipedia, από αξιόπιστη και αξιόπιστη πηγή έως γενικά αναξιόπιστη.
Τα άρθρα που δημιουργούνται από την τεχνητή νοημοσύνη μπορεί να φαίνονται μια βολική λύση για δημοσιεύσεις, αλλά απειλούν τη φήμη, την αξιοπιστία και την κατάταξη στις μηχανές αναζήτησης. Αυτό συνέβη με το CNET της Red Ventures, έναν ιστότοπο τεχνολογικών ειδήσεων και κριτικών (
μέσω του Φουτουρισμού
).
Το 2022,
η δημοσίευση άρχισε να χρησιμοποιεί την τεχνητή νοημοσύνη για τη δημιουργία ορισμένων άρθρων
. Αλλά αυτή η διαφημιστική εκστρατεία ήταν φαινομενικά βραχύβια αφού εντοπίστηκαν ορισμένα άρθρα με σοβαρά προβλήματα γραμματικής και λογοκλοπή. Αυτό το αποτέλεσμα ώθησε τη δημοσίευση να σταματήσει τα άρθρα που δημιουργήθηκαν από την τεχνητή νοημοσύνη, αλλά η έκταση της ζημιάς που προκλήθηκε ήταν ήδη πολύ τεράστια.
Ως αποτέλεσμα, αυτό επηρέασε αρνητικά την κατάταξη της δημοσίευσης στη Wikipedia ως αξιόπιστη πηγή πληροφοριών. Η Wikipedia έχει μια σελίδα μεταγλωττισμένη
Αξιόπιστες πηγές/Περιετείς πηγές,
όπου παραθέτει αξιόπιστες και αξιόπιστες πηγές ειδήσεων.
Τα νέα σχετικά με το CNET που χρησιμοποιεί την τεχνητή νοημοσύνη για να δημιουργήσει μέρος του περιεχομένου του διαδόθηκαν αστραπιαία. Κατά συνέπεια, αυτό πυροδοτεί μια ευρεία συζήτηση μεταξύ των συντακτών της Wikipedia σχετικά με το ζήτημα στη σελίδα του έργου Αξιόπιστες πηγές.
Οι συντάκτες της Wikipedia συζήτησαν το νέο έργο της έκδοσης που αξιοποίησε την τεχνητή νοημοσύνη για τη δημιουργία άρθρων. Ένας από τους συντάκτες ανέφερε ότι το έργο δεν λειτουργούσε ομαλά καθώς ορισμένα κομμάτια ήταν γεμάτα γραμματικά λάθη και ανακριβείς πληροφορίες.
Γνωρίζουμε ότι η τεχνητή νοημοσύνη αντιμετωπίζει αρκετά προβλήματα και προκλήσεις. Θυμάστε όταν ένα άρθρο που δημιουργήθηκε από την τεχνητή νοημοσύνη συνιστούσε μια τράπεζα τροφίμων ως τουριστικό αξιοθέατο ή ένα άλλο παράξενο άρθρο αναφερόταν σε έναν αποθανόντα παίκτη του NBA ως άχρηστο;
Εκείνη την εποχή, η δημοσίευση θεωρούνταν αξιόπιστη πηγή πληροφοριών, αλλά αυτό το έργο την είχε βάλει σε άσχημο φως. Οι συντάκτες επεσήμαναν κατηγορηματικά ότι αναζητούσαν ενεργά κάποια άρθρα που δημιουργήθηκαν από την τεχνητή νοημοσύνη και τα οποία μπορεί κατά λάθος να έφτασαν στη Wikipedia για να τα αφαιρέσουν.
Οι βαθμολογίες του CNET έχουν δεχθεί σημαντικό πλήγμα από τότε, όπως επισημαίνεται στη λίστα Πολυετών Πηγών της Wikipedia. Η Wikipedia έχει χωρίσει την αξιοπιστία της σε τρία επίπεδα. Η πρώτη βαθμίδα αντιπροσωπεύει τις αξιολογήσεις της δημοσίευσης πριν από τον Οκτώβριο, όταν κατατάχθηκε ως «γενικά αξιόπιστη» πηγή.
Ένα στιγμιότυπο οθόνης που δείχνει την κατάταξη και τις βαθμολογίες του CNET στη Wikipedia όλα αυτά τα χρόνια και πώς τα άρθρα που δημιουργήθηκαν από AI μετέτρεψαν την αξιοπιστία του από γενικά αξιόπιστη σε γενικά αναξιόπιστη.
(Πίστωση εικόνας: Wikipedia)
Το δεύτερο επίπεδο αντιπροσωπεύει την κατάσταση του ιστότοπου από τον Οκτώβριο του 2020 έως τώρα. Η Wikipedia σημειώνει επίσης ότι κατά τη διάρκεια αυτής της περιόδου, η Red Ventures εξαγόρασε το CNET, υποδεικνύοντας περαιτέρω ότι άρχισε να γίνεται μάρτυρας “μιας επιδείνωσης των προτύπων σύνταξης” στον ιστότοπο. Αυτή η παρατήρηση τελικά προσέλκυσε μια βαθμολογία “καμία συναίνεση σχετικά με την αξιοπιστία”.
Τέλος, η τρίτη βαθμίδα κατατάσσει το CNET ως “γενικά αναξιόπιστο”. Η Wikipedia το απέδωσε στη χρήση της τεχνητής νοημοσύνης από τον ιστότοπο για τη δημιουργία άρθρων με ανακριβείς πληροφορίες και πολλούς συνδέσμους συνεργατών.
Μιλώντας στο Futurism, ένας εκ
πρόσωπο
ς του CNET ανέφερε:
“Το CNET είναι ο μεγαλύτερος πάροχος αμερόληπτων ειδήσεων και συμβουλών με επίκεντρο την τεχνολογία στον κόσμο. Μας
εμπ
ιστεύονται σχεδόν 30 χρόνια λόγω των αυστηρών προτύπων σύνταξης και ελέγχου προϊόντων. Είναι σημαντικό να διευκρινιστεί ότι το CNET δεν χρησιμοποιεί ενεργά την τεχνητή νοημοσύνη για τη δημιουργία νέου περιεχομένου Αν και δεν έχουμε συγκεκριμένα σχέδια για επανεκκίνηση, οποιεσδήποτε μελλοντικές πρωτοβουλίες θα ακολουθήσουν την πολιτική μας για τη δημόσια τεχνητή νοημοσύνη.”
Ποιο είναι το κόστος της δημοσίευσης άρθρων που δημιουργούνται από AI στο διαδίκτυο;
(Πίστωση εικόνας:
Kevin
Okemwa | Δημιουργός εικόνων Bing)
Ενώ η Αναφορά Δείκτης Τάσεων Εργασίας της Microsoft ανέφερε ότι μόνο το 49% των συμμετεχόντων που συμμετείχαν στην έρευνα τόνισαν ότι ανησυχούν για την ανάληψη της δουλειάς τους από την τεχνητή νοημοσύνη, η τεχνητή νοημοσύνη δυνητικά έχει καταστήσει ορισμένα επαγγέλματα περιττά και ξεπερασμένα ήδη. Αυτό το αποτέλεσμα περιλαμβάνει εργασίες αρχιτεκτονικής, σχεδίασης και κωδικοποίησης. Ο Διευθύνων Σύμβουλος της NVIDIA, Jensen Huang, δήλωσε πρόσφατα ότι η κωδικοποίηση μπορεί να μην είναι μια βιώσιμη επιλογή καριέρας για τη μελλοντική γενιά. Πρόσθεσε ότι είναι καλύτερο να αφήσουμε τον τομέα στην τεχνητή νοημοσύνη και να εξερευνήσουμε προσοδοφόρες ευκαιρίες αλλού.
Εκτός μάχης δεν έμειναν ούτε οι εκδόσεις. Με την ευρεία διαθεσιμότητα των chatbot που υποστηρίζονται από AI, όπως το Microsoft Copilot και το ChatGPT, πολλοί ιστότοποι έσπευσαν να απολύσουν ορισμένους από τους υπαλλήλους τους. Η Microsoft ανακοίνωσε πρόσφατα ότι έχει ξεκινήσει μια νέα πρωτοβουλία για την προετοιμασία των δημοσιογράφων για μελλοντικές αίθουσες σύνταξης με τεχνητή νοημοσύνη. Αυτή η πρωτοβουλία περιλαμβάνει τον εξοπλισμό τους με δεξιότητες και βέλτιστες πρακτικές αξιοποιώντας το εργαλείο για τη βελτίωση της ροής εργασίας τους.
Η τεχνητή νοημοσύνη είναι πολύ γρήγορη κατά τη σύνταξη άρθρων και την αναζήτηση πληροφοριών στον ιστό. Ωστόσο, εάν οι περιπτώσεις που επισημάνθηκαν παραπάνω είναι κάτι που πρέπει να συμβεί, τα άρθρα που δημιουργούνται από την τεχνητή νοημοσύνη συχνά παρουσιάζουν κρίσιμα ζητήματα σχετικά με την ακρίβεια. Αυτή την εβδομάδα, ένας δημοσιογράφος εντόπισε ένα παρόμοιο παράδειγμα προσπαθώντας να αξιοποιήσει τις δυνατότητες του Microsoft Copilot για να γράψει ένα άρθρο ειδήσεων σχετικά με τον πρόσφατο θάνατο του Ρώσου ηγέτη της αντιπολίτευσης Αλεξέι Ναβάλνι. Το chatbot συνέδεσε κατάφωρα τον Πρόεδρο Μπάιντεν και τον Πρόεδρο Πούτιν με τις ψεύτικες δηλώσεις τύπου.
window.reliableConsentGiven.then(function(){
!function(f,b,e,v,n,t,s){if(f.fbq)return;n=f.fbq=function()
{n.callMethod? n.callMethod.apply(n,arguments):n.queue.push(arguments)}
;if(!f._fbq)f._fbq=n;
n.push=n;n.loaded=!0;n.version=’2.0′;n.queue=[];t=b.createElement(e);t.async=!0;
t.src=v;s=b.getElementsByTagName(e)[0];s.parentNode.insertBefore(t,s)}(window,
document,’script’,’https://connect.facebook.net/en_US/fbevents.js’);
fbq(‘init’, ‘1765793593738454′);
fbq(‘track’, ‘PageView’);
})
VIA:
WindowsCentral

