Η Google δοκιμάζει ένα εργαλείο τεχνητής νοημοσύνης που μπορεί να γράψει άρθρα ειδήσεων: κινδυνεύει η δημοσιογραφία;
Πιθανότατα έχετε ήδη βαρεθεί να ακούτε για την τεχνητή νοημοσύνη, αλλά μαντέψτε: Η τεχνητή νοημοσύνη είναι εδώ για να μείνει και μπορεί όχι μόνο να φτάσει στους τίτλους των ειδήσεων αλλά και να γράψει την ίδια την είδηση.
Νιου Γιορκ Ταιμς
ανέφερε ότι η
παρουσιάζει ένα προϊόν που χρησιμοποιεί τεχνητή νοημοσύνη για τη δημιουργία ειδήσεων σε σημαντικούς εκδοτικούς οργανισμούς όπως οι ίδιοι οι New York Times, η Washington Post και η News Corp., η ιδιοκτήτρια της Wall Street Journal.
Αυτό το νέο εργαλείο τεχνητής νοημοσύνης από την Google φέρεται να ονομάζεται Genesis, ή τουλάχιστον, αυτός φαίνεται να είναι ο τίτλος εργασίας του έργου. Άτομα που γνωρίζουν το θέμα, τα οποία, σύμφωνα με τους New York Times, θέλουν να διατηρήσουν την ανωνυμία τους, μοιράστηκαν ότι ο κύριος σκοπός του εργαλείου είναι να λάβει πληροφορίες και στη συνέχεια να δημιουργήσει περιεχόμενο ειδήσεων.
Και φαίνεται ότι η Google το πιστεύει πραγματικά αυτό, σύμφωνα με ένα tweet από την ομάδα της Google Communications σχετικά με την ιστορία. Το tweet αναφέρει ότι το νέο εργαλείο τεχνητής νοημοσύνης, για παράδειγμα, θα βοηθήσει τους δημοσιογράφους να δημιουργήσουν τίτλους ή να επιλέξουν διαφορετικά στυλ γραφής. Και ακόμα κι αν αυτό είναι αλήθεια και αυτός είναι ο στόχος, αναρωτιέμαι ποιος θα είναι υπεύθυνος για την παρακολούθηση του τρόπου με τον οποίο χρησιμοποιείται πραγματικά το εργαλείο από διαφορετικούς εκδότες;
Δείτε τη δήλωσή μας για το
@nytimes
ιστορία για πιθανά εργαλεία με δυνατότητα AI για εκδότες ειδήσεων:Σε συνεργασία με εκδότες ειδήσεων, ειδικά με μικρότερους εκδότες, βρισκόμαστε στα πρώτα στάδια εξερεύνησης ιδεών για την παροχή δυνητικά εργαλείων με δυνατότητα AI για να βοηθήσουμε τους δημοσιογράφους…
— Επικοινωνίες Google (@Google_Comms)
20 Ιουλίου 2023
Η παραπληροφόρηση είναι ένα πιεστικό ζήτημα σήμερα, και μία από τις βασικές ευθύνες των δημοσιογράφων είναι ο έλεγχος των γεγονότων για να διασφαλίσουν ότι το κοινό τους δεν παραπλανάται. Ενώ η τεχνητή νοημοσύνη αναπτύσσεται γρήγορα, πρέπει να αναγνωρίσουμε ότι μερικές φορές μπορεί να παράγει λανθασμένες ή άσχετες πληροφορίες. Και μην με παρεξηγείτε, με γοητεύουν οι ικανότητες των εργαλείων τεχνητής νοημοσύνης όπως το
ChatGPT
του
OpenAI
ή το
Bard
της Google, αλλά πολλά ζητήματα που σχετίζονται με τη χρήση τους πρέπει να αντιμετωπιστούν και ένα από αυτά είναι σίγουρα πώς εκπαιδεύονται. Για παράδειγμα, η χρήση άρθρων δημοσιευμένων συγγραφέων χωρίς την άδειά τους για την εκπαίδευση του εργαλείου AI που θα μπορούσε αργότερα να αντικαταστήσει αυτόν τον συγγραφέα είναι λίγο άδικο, δεν νομίζετε;


