Η Meta σχεδιάζει να αυξήσει τις ετικέτες των εικόνων που δημιουργούνται από AI σε όλες τις πλατφόρμες της
Η Meta σχεδιάζει να αυξήσει την επισήμανση των εικόνων
που
δημιουργούνται από AI σε Facebook, Instagram και Threads για να βοηθήσει να καταστεί σαφές ότι τα γραφικά είναι τεχνητά. Είναι μέρος μιας ευρύτερης ώθησης για την εξάλειψη της παραπληροφόρησης και της παραπληροφόρησης, η οποία είναι ιδιαίτερα σημαντική καθώς τσακωνόμαστε με τις συνέπειες της γενετικής τεχνητής νοημοσύνης (GAI) σε μια σημαντική εκλογική χρονιά στις
ΗΠΑ
και σε άλλες χώρες.
Σύμφωνα με τον πρόεδρο παγκόσμιων υποθέσεων της Meta, Nick Clegg, η εταιρεία συνεργάζεται με συνεργάτες από όλο τον κλάδο για την ανάπτυξη προτύπων που περιλαμβάνουν ενδείξεις ότι μια εικόνα, ένα βίντεο ή ένα κλιπ ήχου έχει δημιουργηθεί με χρήση AI. «Το να είμαστε σε θέση να ανιχνεύσουμε αυτά τα σήματα θα μας επιτρέψει να επισημαίνουμε εικόνες που δημιουργούνται από τεχνητή νοημοσύνη που οι χρήστες δημοσιεύουν στο Facebook, το Instagram και τα Threads», έγραψε ο Clegg σε ένα
Ανάρτηση στο Meta Newsroom
. “Χτίζουμε αυτήν τη δυνατότητα τώρα και
του
ς επόμενους μήνες θα αρχίσουμε να εφαρμόζουμε ετικέτες σε όλες τις γλώσσες που υποστηρίζονται από κάθε εφαρμογή.” Ο Clegg πρόσθεσε ότι, καθώς επεκτείνει αυτές τις δυνατότητες μέσα στο επόμενο έτος, η Meta αναμένει να μάθει περισσότερα για το «πώς οι άνθρωποι δημιουργούν και μοιράζονται
περιεχόμενο
τεχνητής νοημοσύνης, τι είδους διαφάνεια θεωρούν πιο πολύτιμο οι άνθρωποι και πώς εξελίσσονται αυτές οι τεχνολογίες». Αυτά θα βοηθήσουν στην ενημέρωση τόσο των βέλτιστων πρακτικών του κλάδου όσο και των πολιτικών της Meta, έγραψε.
Η Meta λέει ότι τα εργαλεία στα οποία εργάζεται θα μπορούν να ανιχνεύουν αόρατα σήματα – συγκεκριμένα πληροφορίες που δημιουργούνται από τεχνητή νοημοσύνη και ευθυγραμμίζονται με
C2PA
και
IPTC
τεχνικά πρότυπα — σε κλίμακα. Ως εκ τούτου, αναμένει να είναι σε θέση να εντοπίζει και να επισημαίνει εικόνες από τις Google, OpenAI, Microsoft, Adobe, Midjourney και Shutterstock, οι οποίες ενσωματώνουν μεταδεδομένα GAI σε εικόνες που δημιουργούν τα προϊόντα τους.
Όσον αφορά το βίντεο και τον ήχο GAI, ο Clegg επισημαίνει ότι οι εταιρείες στον χώρο δεν έχουν αρχίσει να ενσωματώνουν αόρατα σήματα σε εκείνα της ίδιας κλίμακας που έχουν εικόνες. Ως εκ τούτου, το Meta δεν είναι ακόμη σε θέση να ανιχνεύσει βίντεο και ήχο που παράγονται από εργαλεία τεχνητής νοημοσύνης τρίτων. Στο μεταξύ, η Meta αναμένει από τους χρήστες να επισημαίνουν οι ίδιοι το περιεχόμενο αυτό.
“Ενώ ο κλάδος εργάζεται προς αυτή την ικανότητα, προσθέτουμε μια δυνατότητα για να αποκαλύπτουν οι άνθρωποι όταν μοιράζονται βίντεο ή ήχο που δημιουργείται από AI, ώστε να μπορούμε να προσθέσουμε μια ετικέτα σε αυτό”, έγραψε ο Clegg. “Θα απαιτήσουμε από τους ανθρώπους να χρησιμοποιούν αυτό το εργαλείο αποκάλυψης και ετικέτας όταν δημοσιεύουν οργανικό περιεχόμενο με φωτορεαλιστικό βίντεο ή ήχο ρεαλιστικού ήχου που δημιουργήθηκε ή τροποποιήθηκε ψηφιακά και ενδέχεται να επιβάλλουμε κυρώσεις σε περίπτωση που δεν το κάνουν. Εάν το προσδιορίσουμε Το ψηφιακά δημιουργημένο ή τροποποιημένο περιεχόμενο εικόνας, βίντεο ή ήχου δημιουργεί έναν ιδιαίτερα υψηλό κίνδυνο υλικής εξαπάτησης του κοινού σε ένα σημαντικό θέμα, ενδέχεται να προσθέσουμε μια πιο εμφανή ετικέτα εάν χρειάζεται, ώστε οι άνθρωποι να έχουν περισσότερες πληροφορίες και πλαίσιο.”
Τούτου λεχθέντος, το να αναθέτουμε το βάρος στους χρήστες να προσθέτουν αποκαλύψεις και ετικέτες σε βίντεο και ήχο που δημιουργούνται από τεχνητή νοημοσύνη φαίνεται σαν κάτι που δεν ξεκινά. Πολλοί από αυτούς τους ανθρώπους θα προσπαθήσουν να εξαπατήσουν σκόπιμα τους άλλους. Επιπλέον, άλλοι πιθανότατα απλώς δεν θα ενοχλήσουν ή δεν θα γνωρίζουν τις πολιτικές GAI.
Επιπλέον, η Meta προσπαθεί να καταστήσει πιο δύσκολο για τους ανθρώπους να αλλάξουν ή να αφαιρέσουν αόρατους δείκτες από περιεχόμενο GAI. Το ερευνητικό εργαστήριο FAIR AI της εταιρείας έχει
ανεπτυγμένη τεχνολογία
που “ενσωματώνει τον μηχανισμό υδατογράφησης απευθείας στη διαδικασία δημιουργίας εικόνας για ορισμένους τύπους γεννήτριων εικόνων, οι οποίες θα μπορούσαν να είναι πολύτιμες για μοντέλα ανοιχτού κώδικα, έτσι ώστε η υδατοσήμανση να μην μπορεί να απενεργοποιηθεί”, έγραψε ο Clegg. Η Meta εργάζεται επίσης σε τρόπους αυτόματης ανίχνευσης υλικού που δημιουργείται από AI που δεν έχει αόρατους δείκτες.
Η Meta σχεδιάζει να συνεχίσει να συνεργάζεται με εταίρους του κλάδου και «να παραμείνει σε διάλογο με τις κυβερνήσεις και την κοινωνία των πολιτών», καθώς η GAI γίνεται πιο διαδεδομένη. Πιστεύει ότι αυτή είναι η σωστή προσέγγιση για το χειρισμό περιεχομένου που κοινοποιείται στο Facebook, το Instagram και τα Threads προς το παρόν, αν και θα προσαρμόσει τα πράγματα εάν χρειαστεί.
Ένα βασικό ζήτημα με την προσέγγιση της Meta —τουλάχιστον ενώ εργάζεται σε τρόπους αυτόματης ανίχνευσης περιεχομένου GAI που δεν χρησιμοποιεί τους αόρατους δείκτες του κλάδου— είναι ότι απαιτεί buy-in από συνεργάτες. Για παράδειγμα, το C2PA έχει μια μέθοδο ελέγχου ταυτότητας τύπου ledger. Για να λειτουργήσει αυτό, τόσο τα εργαλεία που χρησιμοποιούνται για τη δημιουργία εικόνων όσο και οι
πλατφόρμες
στις οποίες φιλοξενούνται πρέπει να αγοράσουν στο C2PA.
Η Meta μοιράστηκε την ενημέρωση σχετικά με την προσέγγισή της όσον αφορά την επισήμανση περιεχομένου που δημιουργείται από AI, μόλις λίγες ημέρες αφότου ο διευθύνων σύμβουλος Mark Zuckerberg έριξε λίγο περισσότερο φως στα σχέδια της εταιρείας του να δημιουργήσει γενική τεχνητή νοημοσύνη. Αυτός
διάσημος
ότι τα δεδομένα εκπαίδευσης είναι ένα σημαντικό πλεονέκτημα που έχει η Meta. Η εταιρεία εκτιμά ότι οι φωτογραφίες και τα βίντεο που κοινοποιούνται στο Facebook και το Instagram αποτελούν ένα σύνολο δεδομένων που είναι μεγαλύτερο από το Common Crawl. Πρόκειται για ένα σύνολο δεδομένων από περίπου 250 δισεκατομμύρια ιστοσελίδες που έχουν χρησιμοποιηθεί για την εκπαίδευση άλλων μοντέλων AI. Το Meta θα μπορεί να αξιοποιήσει και τα δύο και δεν χρειάζεται να μοιράζεται τα δεδομένα που έχει συγκεντρώσει μέσω του Facebook και του Instagram με κανέναν άλλο.
Η δέσμευση για ευρύτερη επισήμανση περιεχομένου που δημιουργείται από την τεχνητή νοημοσύνη έρχεται επίσης μόλις μία ημέρα αφότου το Εποπτικό Συμβούλιο της Meta έκρινε ότι ένα βίντεο που επεξεργάστηκε παραπλανητικά για να υποδηλώνει ότι ο πρόεδρος Τζο Μπάιντεν άγγιξε επανειλημμένα το στήθος της εγγονής του θα μπορούσε να παραμείνει στις πλατφόρμες της εταιρείας. Στην πραγματικότητα, ο Μπάιντεν απλώς τοποθέτησε ένα αυτοκόλλητο «ψήφισα» στο πουκάμισό της αφού ψήφισε αυτοπροσώπως για πρώτη φορά. Το διοικητικό συμβούλιο έκρινε ότι το βίντεο ήταν επιτρεπτό σύμφωνα με τους κανόνες της Meta για τα παραποιημένα μέσα, αλλά προέτρεψε την εταιρεία να ενημερώσει αυτές τις οδηγίες της κοινότητας.
VIA:
engadget.com

