Modern technology gives us many things.

Ο πρώην επικεφαλής ασφαλείας της Google, Arjun Narayan, συζητά τα γραπτά νέα της AI

Σε λίγους μήνες, η ιδέα των πειστικών ειδησεογραφικών άρθρων που γράφτηκαν εξ ολοκλήρου από υπολογιστές έχουν εξελιχθεί από τον αντιληπτό παραλογισμό σε μια πραγματικότητα που είναι ήδη μπερδεύει ορισμένους αναγνώστες. Τώρα, συγγραφείς, εκδότες και φορείς χάραξης πολιτικής προσπαθούν να αναπτύξουν πρότυπα για να διατηρήσουν την εμπιστοσύνη σε έναν κόσμο όπου το κείμενο που δημιουργείται από την τεχνητή νοημοσύνη θα εμφανίζεται όλο και περισσότερο διάσπαρτο στις ειδήσεις.

Σημαντικές εκδόσεις τεχνολογίας όπως το CNET έχουν ήδη κυκλοφορήσει πιασμένοι με το χέρι τους στο βάζο για cookie με τεχνητή νοημοσύνη και χρειάστηκε να προβούν σε διορθώσεις σε άρθρα που γράφτηκαν από chatbot τύπου ChatGPT, τα οποία είναι επιρρεπή σε πραγματικά λάθη. Άλλα κυρίαρχα ιδρύματα, όπως Insider, διερευνούν τη χρήση της τεχνητής νοημοσύνης σε άρθρα ειδήσεων με ιδιαίτερα μεγαλύτερη αυτοσυγκράτηση, προς το παρόν τουλάχιστον. Στο πιο δυστοπικό άκρο του φάσματος, χαμηλής ποιότητας Οι φάρμες περιεχομένου χρησιμοποιούν ήδη chatbots για να αναπαράγουν ειδήσεις, ορισμένα από τα οποία περιέχουν δυνητικά επικίνδυνα ψευδή γεγονότα. Αυτές οι προσπάθειες είναι, ομολογουμένως ωμές, αλλά αυτό θα μπορούσε να αλλάξει γρήγορα καθώς η τεχνολογία ωριμάζει.

Τα ζητήματα σχετικά με τη διαφάνεια και τη λογοδοσία της τεχνητής νοημοσύνης είναι από τις πιο δύσκολες προκλήσεις που απασχολούν το μυαλό του Arjun Narayan, του επικεφαλής του τμήματος εμπιστοσύνης και ασφάλειας για το SmartNews, μια εφαρμογή ανακάλυψης ειδήσεων διαθέσιμη σε περισσότερες από 150 χώρες που χρησιμοποιεί έναν προσαρμοσμένο αλγόριθμο συστάσεων με δηλωμένος στόχος της «παράδοσης των ποιοτικών πληροφοριών του κόσμου στους ανθρώπους που τις χρειάζονται». Πριν από το SmartNews, ο Narayan εργαζόταν ως Υπεύθυνος Εμπιστοσύνης και Ασφάλειας στην ByteDance και την Google. Κατά κάποιο τρόπο, οι φαινομενικά ξαφνικές προκλήσεις που τίθενται από τους παραγωγούς ειδήσεων τεχνητής νοημοσύνης σήμερα προκύπτουν από τη σταδιακή συγκέντρωση αλγορίθμων συστάσεων και άλλων προϊόντων τεχνητής νοημοσύνης που ο Narayan έχει βοηθήσει στην επίβλεψη για περισσότερα από είκοσι χρόνια. Ο Narayan μίλησε με το Gizmodo για την πολυπλοκότητα της τρέχουσας στιγμής, τον τρόπο με τον οποίο οι ειδησεογραφικοί οργανισμοί θα πρέπει να προσεγγίσουν το περιεχόμενο της τεχνητής νοημοσύνης με τρόπους που μπορούν να χτίσουν και να καλλιεργήσουν την εμπιστοσύνη των αναγνωστών και τι να περιμένουμε στο αβέβαιο εγγύς μέλλον της γενετικής τεχνητής νοημοσύνης.

Αυτή η συνέντευξη έχει επιμεληθεί για λόγους έκτασης και σαφήνειας.

Ποιες θεωρείτε ως μερικές από τις μεγαλύτερες απρόβλεπτες προκλήσεις που θέτει η παραγωγική τεχνητή νοημοσύνη από άποψη εμπιστοσύνης και ασφάλειας;

Υπάρχουν μερικοί κίνδυνοι. Το πρώτο αφορά τη διασφάλιση ότι τα συστήματα AI εκπαιδεύονται σωστά και εκπαιδεύονται με τη σωστή επίγεια αλήθεια. Είναι πιο δύσκολο για εμάς να δουλέψουμε προς τα πίσω και να προσπαθήσουμε να καταλάβουμε γιατί ορισμένες αποφάσεις βγήκαν όπως βγήκαν. Είναι εξαιρετικά σημαντικό να βαθμονομείτε και να επιμελείτε προσεκτικά οποιοδήποτε σημείο δεδομένων εισέρχεται για την εκπαίδευση του συστήματος AI.

Όταν ένα AI παίρνει μια απόφαση, μπορείτε να του αποδώσετε κάποια λογική, αλλά στις περισσότερες περιπτώσεις είναι λίγο μαύρο κουτί. Είναι σημαντικό να αναγνωρίσουμε ότι η τεχνητή νοημοσύνη μπορεί να βρει πράγματα και να δημιουργήσει πράγματα που δεν είναι αληθινά ή δεν υπάρχουν καν. Ο βιομηχανικός όρος είναι “ψευδαίσθηση”. Το σωστό είναι να πείτε: “Γεια, δεν έχω αρκετά δεδομένα, δεν ξέρω.”

Έπειτα, υπάρχουν οι επιπτώσεις για την κοινωνία. Καθώς η γενετική τεχνητή νοημοσύνη αναπτύσσεται σε περισσότερους κλάδους της βιομηχανίας, θα υπάρξει αναστάτωση. Πρέπει να αναρωτηθούμε εάν έχουμε τη σωστή κοινωνική και οικονομική τάξη για να αντιμετωπίσουμε αυτό το είδος τεχνολογικής διαταραχής. Τι συμβαίνει με τους ανθρώπους που είναι εκτοπισμένοι και δεν έχουν δουλειά; Αυτό που θα μπορούσε να είναι άλλα 30 ή 40 χρόνια πριν τα πράγματα γίνουν mainstream είναι τώρα πέντε ή δέκα χρόνια. Έτσι, αυτό δεν δίνει πολύ χρόνο στις κυβερνήσεις ή στις ρυθμιστικές αρχές να προετοιμαστούν για αυτό. Ή για τους υπεύθυνους χάραξης πολιτικής να έχουν στη θέση τους προστατευτικά κιγκλιδώματα. Αυτά είναι πράγματα που πρέπει να σκεφτούν όλες οι κυβερνήσεις και η κοινωνία των πολιτών.

Ποιοι είναι μερικοί από τους κινδύνους ή τις προκλήσεις που αντιμετωπίζετε με τις πρόσφατες προσπάθειες ειδησεογραφικών οργανισμών να δημιουργήσουν περιεχόμενο χρησιμοποιώντας τεχνητή νοημοσύνη;

Είναι σημαντικό να κατανοήσουμε ότι μπορεί να είναι δύσκολο να ανιχνευθεί ποιες ιστορίες έχουν γραφτεί πλήρως από AI και ποιες όχι. Αυτή η διάκριση ξεθωριάζει. Αν εκπαιδεύσω ένα μοντέλο τεχνητής νοημοσύνης για να μάθω πώς γράφει ο Mack το editorial του, ίσως το επόμενο που δημιουργεί η τεχνητή νοημοσύνη να είναι σε μεγάλο βαθμό στο στυλ του Mack. Δεν νομίζω ότι είμαστε ακόμα εκεί, αλλά μπορεί κάλλιστα να είναι το μέλλον. Τότε λοιπόν τίθεται ένα ερώτημα σχετικά με τη δημοσιογραφική δεοντολογία. Είναι δίκαιο αυτό; Ποιος έχει αυτά τα πνευματικά δικαιώματα, σε ποιον ανήκει αυτή η IP;

Πρέπει να έχουμε κάποιες πρώτες αρχές. Προσωπικά πιστεύω ότι δεν υπάρχει τίποτα κακό με το AI να δημιουργεί ένα άρθρο, αλλά είναι σημαντικό να είμαστε διαφανείς στον χρήστη ότι αυτό το περιεχόμενο δημιουργήθηκε από AI. Είναι σημαντικό για εμάς να υποδείξουμε είτε σε μια byline είτε σε μια αποκάλυψη ότι το περιεχόμενο δημιουργήθηκε είτε εν μέρει είτε πλήρως από AI. Εφόσον πληροί τα ποιοτικά πρότυπα ή τα πρότυπα σύνταξης, γιατί όχι;

Μια άλλη πρώτη αρχή: υπάρχουν πολλές φορές που η τεχνητή νοημοσύνη έχει παραισθήσεις ή όταν το περιεχόμενο που βγαίνει μπορεί να έχει πραγματικές ανακρίβειες. Νομίζω ότι είναι σημαντικό για τα μέσα ενημέρωσης και τις εκδόσεις ή ακόμα και τους συγκεντρωτές ειδήσεων να κατανοήσουν ότι χρειάζεστε μια συντακτική ομάδα ή μια ομάδα προτύπων ή όπως θέλετε να την ονομάσετε που να διορθώνει οτιδήποτε βγαίνει από αυτό το σύστημα AI. Ελέγξτε το για ακρίβεια, ελέγξτε το για πολιτικές κλίσεις. Χρειάζεται ακόμη ανθρώπινη επίβλεψη. Χρειάζεται έλεγχο και επιμέλεια για τα εκδοτικά πρότυπα και αξίες. Όσο αυτές οι πρώτες αρχές τηρούνται, νομίζω ότι έχουμε δρόμο μπροστά.

Τι κάνετε όμως όταν μια τεχνητή νοημοσύνη δημιουργεί μια ιστορία και εισάγει κάποια γνώμη ή αναλύσεις; Πώς θα μπορούσε ένας αναγνώστης να διακρίνει από πού προέρχεται αυτή η γνώμη εάν δεν μπορείτε να εντοπίσετε τις πληροφορίες από ένα σύνολο δεδομένων;

Συνήθως, εάν είστε ο άνθρωπος συγγραφέας και μια τεχνητή νοημοσύνη γράφει την ιστορία, ο άνθρωπος εξακολουθεί να θεωρείται ο συγγραφέας. Σκεφτείτε το σαν μια γραμμή συναρμολόγησης. Υπάρχει λοιπόν μια γραμμή συναρμολόγησης Toyota όπου ρομπότ συναρμολογούν ένα αυτοκίνητο. Εάν το τελικό προϊόν έχει ελαττωματικό αερόσακο ή έχει ελαττωματικό τιμόνι, η Toyota εξακολουθεί να τον έχει στην κυριότητα, ανεξάρτητα από το γεγονός ότι ένα ρομπότ κατασκεύασε αυτόν τον αερόσακο. Όταν πρόκειται για την τελική έξοδο, η δημοσίευση ειδήσεων είναι αυτή που είναι υπεύθυνη. Βάζεις το όνομά σου. Επομένως, όταν πρόκειται για συγγραφικό ή πολιτικό προσανατολισμό, όποια γνώμη κι αν σας δώσει το μοντέλο τεχνητής νοημοσύνης, εξακολουθείτε να το αποτυπώνετε.

Είμαστε ακόμα νωρίς εδώ, αλλά υπάρχουν ήδη εκθέσεις εκμεταλλεύσεων περιεχομένου που χρησιμοποιούν μοντέλα τεχνητής νοημοσύνης, συχνά πολύ νωχελικά, για την παραγωγή περιεχομένου χαμηλής ποιότητας ή ακόμα και παραπλανητικού περιεχομένου για τη δημιουργία εσόδων από διαφημίσεις. Ακόμα κι αν ορισμένες δημοσιεύσεις συμφωνούν να είναι διαφανείς, υπάρχει κίνδυνος τέτοιες ενέργειες να μειώσουν αναπόφευκτα την εμπιστοσύνη στις ειδήσεις συνολικά;

Καθώς η τεχνητή νοημοσύνη προχωρά, υπάρχουν ορισμένοι τρόποι με τους οποίους θα μπορούσαμε ίσως να εντοπίσουμε εάν κάτι ήταν γραμμένο με τεχνητή νοημοσύνη ή όχι, αλλά εξακολουθεί να είναι πολύ αρχικό. Δεν είναι πολύ ακριβές και δεν είναι πολύ αποτελεσματικό. Αυτό είναι όπου η βιομηχανία εμπιστοσύνης και ασφάλειας πρέπει να καλύψει τον τρόπο με τον οποίο εντοπίζουμε συνθετικά μέσα έναντι μη συνθετικών μέσων. Για τα βίντεο, υπάρχουν μερικοί τρόποι ανίχνευσης deepfakes, αλλά οι βαθμοί ακρίβειας διαφέρουν. Νομίζω ότι η τεχνολογία ανίχνευσης πιθανότατα θα φτάσει τη διαφορά καθώς η τεχνητή νοημοσύνη προχωρά, αλλά αυτός είναι ένας τομέας που απαιτεί περισσότερες επενδύσεις και περισσότερη εξερεύνηση.

Πιστεύετε ότι η επιτάχυνση της τεχνητής νοημοσύνης θα μπορούσε να ενθαρρύνει τις εταιρείες μέσων κοινωνικής δικτύωσης να βασίζονται ακόμη περισσότερο στην τεχνητή νοημοσύνη για τον έλεγχο περιεχομένου; Θα υπάρχει πάντα ένας ρόλος για τον συντονιστή ανθρώπινου περιεχομένου στο μέλλον;

Για κάθε θέμα, όπως ρητορική μίσους, παραπληροφόρηση ή παρενόχληση, έχουμε συνήθως μοντέλα που συνεργάζονται με ανθρώπινους συντονιστές. Υπάρχει υψηλή τάξη ακρίβειας για ορισμένους από τους πιο ώριμους τομείς έκδοσης. ρητορική μίσους σε κείμενο, για παράδειγμα. Σε μεγάλο βαθμό, η τεχνητή νοημοσύνη είναι σε θέση να το αντιληφθεί καθώς δημοσιεύεται ή καθώς κάποιος το πληκτρολογεί.

Ωστόσο, αυτός ο βαθμός ακρίβειας δεν είναι ο ίδιος για όλους τους τομείς ζητημάτων. Επομένως, μπορεί να έχουμε ένα αρκετά ώριμο μοντέλο για τη ρητορική μίσους αφού υπάρχει εδώ και 100 χρόνια, αλλά ίσως για την παραπληροφόρηση για την υγεία ή την παραπληροφόρηση σχετικά με τον Covid, ίσως χρειαστεί να υπάρξει περισσότερη εκπαίδευση στην τεχνητή νοημοσύνη. Προς το παρόν, μπορώ να πω με ασφάλεια ότι θα χρειαστούμε ακόμα πολύ ανθρώπινο πλαίσιο. Τα μοντέλα δεν είναι ακόμα εκεί. Θα εξακολουθήσει να είναι οι άνθρωποι στο βρόχο και θα εξακολουθεί να είναι ένα συνεχές μάθησης ανθρώπου-μηχανής στον χώρο εμπιστοσύνης και ασφάλειας. Η τεχνολογία ανταποκρίνεται πάντα σε απειλές.

Ποια είναι η γνώμη σας για τις μεγάλες εταιρείες τεχνολογίας που απέλυσαν σημαντικά τμήματα των ομάδων εμπιστοσύνης και ασφάλειας τους τελευταίους μήνες με την αιτιολόγηση ότι ήταν απαραίτητες;

Με αφορά. Όχι μόνο εμπιστοσύνη και ασφάλεια, αλλά και ομάδες ηθικής τεχνητής νοημοσύνης. Νιώθω ότι οι εταιρείες τεχνολογίας είναι ομόκεντροι κύκλοι. Η μηχανική είναι ο πιο εσώτερος κύκλος, ενώ η στρατολόγηση ανθρώπινου δυναμικού, η ηθική της τεχνητής νοημοσύνης, η εμπιστοσύνη και η ασφάλεια, είναι όλοι οι εξωτερικοί κύκλοι και αφήνονται. Καθώς αποεπενδύουμε, περιμένουμε σκασμό να χτυπήσει ο ανεμιστήρας; Θα ήταν τότε πολύ αργά για επανεπένδυση ή θα διορθωθεί;

Χαίρομαι που αποδεικνύεται ότι κάνω λάθος, αλλά γενικά ανησυχώ. Χρειαζόμαστε περισσότερους ανθρώπους που θα σκεφτούν αυτά τα βήματα και θα τους δώσουν τον αποκλειστικό χώρο για τον μετριασμό των κινδύνων. Διαφορετικά, η κοινωνία όπως τη γνωρίζουμε, ο ελεύθερος κόσμος όπως τον ξέρουμε, θα βρίσκεται σε σημαντικό κίνδυνο. Πιστεύω ότι πρέπει να γίνουν περισσότερες επενδύσεις στην εμπιστοσύνη και την ασφάλεια ειλικρινά.

Ο Geoffrey Hinton που κάποιοι τον έχουν αποκαλέσει Νονός του AI, έκτοτε βγήκε και δήλωσε δημόσια ότι μετανιώνει για τη δουλειά του στην τεχνητή νοημοσύνη και φοβάται ότι πλησιάζουμε γρήγορα σε μια περίοδο όπου είναι δύσκολο να διακρίνουμε τι ισχύει στο Διαδίκτυο. Ποια είναι η γνώμη σας για τα σχόλιά του;

Αυτός [Hinton] είναι ένας θρύλος σε αυτόν τον χώρο. Αν κάποιος, θα ήξερε τι λέει. Αλλά αυτό που λέει ισχύει.

Ποιες είναι μερικές από τις πιο υποσχόμενες περιπτώσεις χρήσης για την τεχνολογία που σας ενθουσιάζει;

Έχασα τον μπαμπά μου πρόσφατα από Πάρκινσον. Το πάλεψε για 13 χρόνια. Όταν εξετάζω τη νόσο του Πάρκινσον και το Αλτσχάιμερ, πολλές από αυτές τις ασθένειες δεν είναι νέες, αλλά δεν υπάρχει αρκετή έρευνα και επένδυση σε αυτές. Φανταστείτε αν είχατε την τεχνητή νοημοσύνη να κάνει αυτή την έρευνα στη θέση ενός ανθρώπινου ερευνητή ή εάν η τεχνητή νοημοσύνη θα μπορούσε να βοηθήσει να προωθήσουμε μέρος της σκέψης μας. Δεν θα ήταν φανταστικό; Νιώθω ότι εκεί η τεχνολογία μπορεί να κάνει τεράστια διαφορά στην ανύψωση της ζωής μας.

Πριν από μερικά χρόνια υπήρχε μια παγκόσμια δήλωση ότι δεν θα κλωνοποιήσουμε ανθρώπινα όργανα, παρόλο που υπάρχει η τεχνολογία. Υπάρχει λόγος για αυτό. Εάν αυτή η τεχνολογία επρόκειτο να εμφανιστεί, θα εγείρει κάθε είδους ηθικούς προβληματισμούς. Θα είχατε τριτοκοσμικές χώρες να συλλέγονται για ανθρώπινα όργανα. Επομένως, πιστεύω ότι είναι εξαιρετικά σημαντικό για τους υπεύθυνους χάραξης πολιτικής να σκεφτούν πώς μπορεί να χρησιμοποιηθεί αυτή η τεχνολογία, ποιοι τομείς πρέπει να την αναπτύξουν και ποιοι τομείς δεν πρέπει να είναι προσβάσιμοι. Δεν εναπόκειται στις ιδιωτικές εταιρείες να αποφασίσουν. Εδώ πρέπει να σκεφτούν οι κυβερνήσεις.

Σε σχέση με το αισιόδοξο ή το απαισιόδοξο, πώς αισθάνεστε για το τρέχον τοπίο της τεχνητής νοημοσύνης;

Είμαι μισογεμάτος το ποτήρι άτομο. Είμαι αισιόδοξος αλλά επιτρέψτε μου να σας το πω αυτό. Έχω μια κόρη επτά ετών και συχνά αναρωτιέμαι τι είδους δουλειές θα κάνει. Σε 20 χρόνια, οι θέσεις εργασίας, όπως τις ξέρουμε σήμερα, θα αλλάξουν ριζικά. Μπαίνουμε σε μια άγνωστη περιοχή. Είμαι επίσης ενθουσιασμένος και επιφυλακτικά αισιόδοξος.

Θέλετε να μάθετε περισσότερα για την τεχνητή νοημοσύνη, τα chatbots και το μέλλον της μηχανικής μάθησης; Δείτε την πλήρη κάλυψή μας για τεχνητή νοημοσύνηή περιηγηθείτε στους οδηγούς μας Οι καλύτερες δωρεάν γεννήτριες τέχνης AI και Όλα όσα γνωρίζουμε για το ChatGPT του OpenAI.



gizmodo.com

Follow TechWar.gr on Google News

Απάντηση