Ο Chuck Schumer θα συναντηθεί με τον Elon Musk, τον Mark Zuckerberg και άλλους στο AI
Πρωτοσέλιδα αυτή την εβδομάδα
-
Σε αυτά που σίγουρα θα είναι ευπρόσδεκτα νέα για τεμπέληδες υπαλλήλους γραφείου παντού, μπορείτε τώρα να πληρώνετε 30 $ το μήνα για να έχετε την Google
Duet AI
γράψτε email
για σενα. -
Η Google κυκλοφόρησε επίσης ένα εργαλείο υδατογράφησης, το SynthID, για μια από
τι
ς θυγατρικές της που δημιουργούν εικόνες τεχνητής νοημοσύνης. Πήραμε συνέντευξη από έναν καθηγητή πληροφορικής σχετικά με το γιατί αυτό μπορεί (ή μπορεί να μην είναι) καλά νέα. -
Τελευταίο αλλά εξίσου σημαντικό: Τώρα έχετε την ευκαιρία να πείτε στην κυβέρνηση τη γνώμη σας σχετικά με ζητήματα πνευματικών δικαιωμάτων σχετικά με τα εργαλεία τεχνητής νοημοσύνης. Το Γραφείο Πνευματικών Δικαιωμάτων των ΗΠΑ άνοιξε επίσημα
δημόσιο σχόλιο
. Μπορείτε να υποβάλετε ένα σχόλιο χρησιμοποιώντας την πύλη στον ιστότοπό τους.
:
VegaTews
(
Shutterstock
)
The Top Story: Schumer’s AI Summit
Τσακ Σούμερ
έχει ανακοινώσει
ότι το γραφείο του θα συναντηθεί με κορυφαίους παίκτες στον τομέα της τεχνητής νοημοσύνης αργότερα αυτόν τον μήνα, σε μια προσπάθεια να συγκεντρώσει στοιχεία που μπορεί να ενημερώσουν τους επερχόμενους κανονισμούς. Ως ηγέτης της Πλειοψηφίας της Γερουσίας, ο Σούμερ έχει σημαντική εξουσία να κατευθύνει τη μελλοντική μορφή των ομοσπονδιακών κανονισμών, σε περίπτωση που προκύψουν. Ωστόσο, οι άνθρωποι που κάθονται σε αυτή τη συνάντηση δεν αντιπροσωπεύουν ακριβώς τον απλό άνθρωπο. Προσκεκλημένος στην επερχόμενη σύνοδο κορυφής είναι ο τεχνολογικός μεγαδισεκατομμυριούχος Έλον Μασκ, ο κάποτε
υποθετικός παρτενέρ sparring
Ο Διευθύνων Σύμβουλος της Meta, Mark Zuckerberg, ο Διευθύνων Σύμβουλος της OpenAI, Sam Altman, ο Διευθύνων Σύμβουλος της Google, Sundar Pichai, ο πρόεδρος της NVIDIA, Jensen Huang, και ο Alex Karpy, Διευθύνων Σύμβουλος του αμυντικού εργολάβου creep Palantir, μεταξύ άλλων μεγάλων ονομάτων από τα ανώτερα κλιμάκια της Silicon Valley.
Η επερχόμενη συνάντηση του Σούμερ – την οποία το γραφείο του έχει ονομάσει “Φόρουμ AI Insight” – φαίνεται να δείχνει ότι
μερικοί
Ένα είδος ρυθμιστικής δράσης μπορεί να είναι στα σκαριά, ωστόσο —από την εμφάνιση της λίστας καλεσμένων (ένα μάτσο εταιρικών γύπες)—δεν φαίνεται απαραίτητα ότι αυτή η ενέργεια θα είναι
επα
ρκής.
Η λίστα των ατόμων που θα παρευρεθούν στη συνάντηση με τον Schumer έχει g
δέχτηκε έντονη κριτική
στο διαδίκτυο, από αυτούς που το βλέπουν ως ένα πραγματικό ποιος είναι ποιος των εταιρικών παικτών. Ωστόσο, το γραφείο του Σούμερ είπε ότι ο Γερουσιαστής
θα συνεδριάσει επίσης
με ορισμένους ηγέτες των πολιτικών δικαιωμάτων και των εργατών—συμπεριλαμβανομένου του AFL-CIO, της μεγαλύτερης ομοσπονδίας συνδικάτων της Αμερικής, της οποίας η πρόεδρος, Liz Schuler, θα εμφανιστεί στη συνάντηση. Ωστόσο, είναι δύσκολο να μην δούμε αυτή την κλειστή πόρτα να συγκεντρώνεται ως ευκαιρία για την τεχνολογική βιομηχανία να εκλιπαρήσει έναν από τους πιο ισχυρούς πολιτικούς της Αμερικής για ρυθμιστική επιείκεια. Μόνο ο χρόνος θα δείξει αν ο Chuck έχει τα κότσια να ακούσει τους καλύτερους αγγέλους του ή αν θα υποχωρήσει στους καταχρεωμένους απατεώνες που σχεδιάζουν να κουρνιάσουν στον ώμο του και να ψιθυρίσουν γλυκά τίποτα.
Ερώτηση της ημέρας: Ποια είναι η συμφωνία με το SynthID;
Οπως και
γενετικό AI
εργαλεία όπως το ChatGPT και το DALL-E έχουν εκτιναχθεί σε δημοτικότητα, οι επικριτές ανησυχούν ότι η βιομηχανία — η οποία επιτρέπει στους χρήστες να δημιουργούν ψεύτικο κείμενο και εικόνες — θα προκαλέσει τεράστιο όγκο διαδικτυακής παραπληροφόρησης. Η λύση που έχει τεθεί είναι κάτι που λέγεται
υδατογράφημα
, ένα σύστημα όπου το περιεχόμενο AI σφραγίζεται αυτόματα και αόρατα με ένα εσωτερικό αναγνωριστικό κατά τη δημιουργία, επιτρέποντάς του να αναγνωριστεί αργότερα ως συνθετικό. Αυτή την εβδομάδα, το DeepMind της Google κυκλοφόρησε μια έκδοση beta ενός εργαλείου υδατογράφησης που λέει ότι θα βοηθήσει σε αυτήν την εργασία.
SynthID
έχει σχεδιαστεί για να λειτουργεί για πελάτες DeepMind και θα τους επιτρέπει να επισημαίνουν τα στοιχεία που δημιουργούν ως συνθετικά. Δυστυχώς, η Google έκανε επίσης την
εφαρμογή
προαιρετική, πράγμα που σημαίνει ότι οι χρήστες δεν θα χρειαστεί να σφραγίσουν το περιεχόμενό τους με αυτήν αν δεν το θέλουν.
:
Πανεπιστήμιο του Βατερλώ
Η Συνέντευξη: Florian Kerschbaum για την υπόσχεση και τις παγίδες του υδατογραφήματος AI
Αυτή την εβδομάδα, είχαμε τη χαρά να μιλήσουμε με τον Δρ Florian Kerschbaum, καθηγητή στη Σχολή Επιστήμης Υπολογιστών David R. Cheriton στο Πανεπιστήμιο του Waterloo. Ο Kerschbaum έχει μελετήσει εκτενώς τα συστήματα υδατογράφησης σε γενετική τεχνητή νοημοσύνη. Θέλαμε να ρωτήσουμε τον Florian σχετικά με την πρόσφατη κυκλοφορία του SynthID από την Google και αν πιστεύει ότι ήταν ένα βήμα προς τη σωστή κατεύθυνση ή όχι. Αυτή η συνέντευξη έχει τροποποιηθεί για λόγους συντομίας και σαφήνειας.
Μπορείτε να εξηγήσετε λίγα λόγια για το πώς λειτουργεί η υδατογράφηση AI και ποιος είναι ο σκοπός της;
Η υδατοσήμανση λειτουργεί βασικά με την ενσωμάτωση ενός μυστικού μηνύματος μέσα σε ένα συγκεκριμένο μέσο που μπορείτε να εξαγάγετε αργότερα εάν γνωρίζετε το σωστό κλειδί. Αυτό το μήνυμα θα πρέπει να διατηρηθεί ακόμη και αν το στοιχείο έχει τροποποιηθεί με κάποιο τρόπο. Για παράδειγμα, στην περίπτωση των εικόνων, εάν τις αλλάξω κλίμακα ή τις φωτίσω ή προσθέσω άλλα φίλτρα σε αυτές, το μήνυμα θα πρέπει να διατηρηθεί.
Φαίνεται ότι αυτό είναι ένα σύστημα που θα μπορούσε να έχει κάποιες ελλείψεις ασφαλείας. Υπάρχουν περιπτώσεις όπου ένας κακός ηθοποιός θα μπορούσε να ξεγελάσει ένα σύστημα υδατογραφήματος;
Τα υδατογραφήματα εικόνας υπάρχουν εδώ και πολύ καιρό. Υπάρχουν εδώ και 20 με 25 χρόνια. Βασικά, όλα τα τρέχοντα συστήματα μπορούν να παρακαμφθούν εάν γνωρίζετε τον αλγόριθμο. Μπορεί ακόμη και να είναι αρκετό αν έχετε πρόσβαση στο ίδιο το σύστημα ανίχνευσης AI. Ακόμη και αυτή η πρόσβαση μπορεί να είναι επαρκής για να σπάσει το σύστημα, επειδή ένα άτομο θα μπορούσε απλώς να κάνει μια σειρά ερωτημάτων, όπου κάνει συνεχώς μικρές αλλαγές στην εικόνα έως ότου το σύστημα τελικά δεν αναγνωρίζει πλέον το στοιχείο. Αυτό θα μπορούσε να προσφέρει ένα μοντέλο για να ξεγελαστεί η ανίχνευση AI συνολικά.
Ο μέσος άνθρωπος που εκτίθεται σε παραπληροφόρηση ή παραπληροφόρηση δεν πρόκειται απαραίτητα να ελέγχει κάθε κομμάτι περιεχομένου που συναντά το newsfeed του για να δει αν είναι υδατογραφημένο ή όχι. Αυτό δεν φαίνεται σαν ένα σύστημα με κάποιους σοβαρούς περιορισμούς;
Πρέπει να κάνουμε διάκριση μεταξύ του προβλήματος της αναγνώρισης περιεχομένου που δημιουργείται με τεχνητή νοημοσύνη και του προβλήματος περιορισμού της διάδοσης ψεύτικων ειδήσεων. Σχετίζονται με την έννοια ότι η τεχνητή νοημοσύνη διευκολύνει πολύ τον πολλαπλασιασμό των ψεύτικων ειδήσεων, αλλά μπορείτε επίσης να δημιουργήσετε ψεύτικες
ειδήσεις
με μη αυτόματο τρόπο—και αυτό το είδος περιεχομένου δεν θα εντοπιστεί ποτέ από τέτοιο [watermarking] Σύστημα. Πρέπει λοιπόν να δούμε τα fake news ως ένα διαφορετικό αλλά σχετικό πρόβλημα. Επίσης, δεν είναι απολύτως απαραίτητο για κάθε χρήστη της πλατφόρμας να το ελέγξει [whether content is real or not]. Υποθετικά μια πλατφόρμα, όπως το Twitter, θα μπορούσε να ελέγξει αυτόματα για εσάς. Το θέμα είναι ότι το Twitter στην πραγματικότητα δεν έχει κίνητρο να το κάνει αυτό, επειδή το Twitter ουσιαστικά εξαφανίζει τις ψεύτικες ειδήσεις. Έτσι, ενώ πιστεύω ότι, στο τέλος, θα μπορέσουμε να ανιχνεύσουμε περιεχόμενο που δημιουργείται με τεχνητή νοημοσύνη, δεν πιστεύω ότι αυτό θα λύσει το πρόβλημα των ψεύτικων ειδήσεων.
Εκτός από την υδατοσήμανση, ποιες είναι μερικές άλλες πιθανές λύσεις που θα μπορούσαν να βοηθήσουν στον εντοπισμό συνθετικού περιεχομένου;
Έχουμε τρεις τύπους, βασικά. Έχουμε υδατογράφηση, όπου τροποποιούμε αποτελεσματικά την κατανομή εξόδου ενός μοντέλου, ώστε να μπορούμε να το αναγνωρίσουμε. Το άλλο είναι ένα σύστημα όπου αποθηκεύετε όλο το περιεχόμενο τεχνητής νοημοσύνης που δημιουργείται από μια πλατφόρμα και στη συνέχεια μπορείτε να ρωτήσετε εάν ένα κομμάτι διαδικτυακού περιεχομένου εμφανίζεται σε αυτήν τη λίστα υλικών ή όχι… Και η τρίτη λύση συνεπάγεται την προσπάθεια ανίχνευσης τεχνουργημάτων [i.e., tell tale signs] του παραγόμενου υλικού. Για παράδειγμα, όλο και περισσότερες ακαδημαϊκές εργασίες γράφονται από το ChatGPT. Εάν μεταβείτε σε μια μηχανή αναζήτησης για ακαδημαϊκές εργασίες και εισαγάγετε “Ως μοντέλο μεγάλης γλώσσας…” [a phrase a chatbot would automatically spit out in the course of generating an essay] θα βρείτε ένα σωρό αποτελέσματα. Αυτά τα τεχνουργήματα είναι σίγουρα παρόντα και αν εκπαιδεύσουμε αλγόριθμους να αναγνωρίζουν αυτά τα τεχνουργήματα, αυτός είναι ένας άλλος τρόπος αναγνώρισης αυτού του είδους περιεχομένου.
Έτσι, με αυτήν την τελευταία λύση, βασικά χρησιμοποιείτε το AI για να ανιχνεύσετε AI, σωστά;
Ναι.
Και στη συνέχεια, με τη λύση πριν από αυτό – αυτή που περιλαμβάνει μια τεράστια βάση δεδομένων υλικού που δημιουργείται από την τεχνητή νοημοσύνη – φαίνεται ότι θα έχει κάποια προβλήματα απορρήτου, σωστά;
Σωστά. Η πρόκληση απορρήτου με το συγκεκριμένο μοντέλο αφορά λιγότερο το γεγονός ότι η εταιρεία αποθηκεύει κάθε κομμάτι περιεχομένου που δημιουργείται—επειδή όλες αυτές οι εταιρείες το έχουν ήδη κάνει. Το μεγαλύτερο ζήτημα είναι ότι για να ελέγξει ένας χρήστης εάν μια εικόνα είναι τεχνητής νοημοσύνης ή όχι, θα πρέπει να υποβάλει αυτήν την εικόνα στο αποθετήριο της εταιρείας για να την ελέγξει. Και οι εταιρείες πιθανότατα θα κρατήσουν και ένα αντίγραφο αυτού. Αυτό λοιπόν με ανησυχεί.
Επομένως, ποια από αυτές τις λύσεις είναι η καλύτερη, από τη δική σας οπτική;
Όσον αφορά την ασφάλεια, πιστεύω πολύ στο να μην βάζετε όλα τα αυγά σας σε ένα καλάθι. Πιστεύω λοιπόν ότι θα πρέπει να χρησιμοποιήσουμε όλες αυτές τις στρατηγικές και να σχεδιάσουμε ένα ευρύτερο σύστημα γύρω από αυτές. Πιστεύω ότι αν το κάνουμε αυτό —και το κάνουμε προσεκτικά— τότε έχουμε πιθανότητες να πετύχουμε.
Προλάβετε όλα
Τα νέα της τεχνητής νοημοσύνης του Gizmodo εδώ
ή δείτε
όλα τα τελευταία νέα εδώ
. Για καθημερινές ενημερώσεις,
εγγραφείτε στο δωρεάν
ενημερωτικό δελτίο
Gizmodo
.
