Η καταστροφή του Defake της Taylor Swift ήταν απογοητευτικά αποτρέψιμη



Ξέρετε ότι έχετε μπερδέψει όταν εξοργίσατε ταυτόχρονα τον Λευκό Οίκο, το πρόσωπο της χρονιάς στο TIME και την πιο έξαλλη βάση θαυμαστών της ποπ κουλτούρας. Αυτό συνέβη την περασμένη εβδομάδα με το X, την πλατφόρμα του Elon Musk

παλαιότερα ονομαζόταν Twitter, όταν οι πορνογραφικές εικόνες της Taylor Swift που δημιουργήθηκαν από AI έγιναν viral.

Μία από τις πιο διαδεδομένες αναρτήσεις των μη συναινετικών, σαφών deepfakes προβλήθηκε περισσότερες από 45 εκατομμύρια φορές, με εκατοντάδες χιλιάδες likes. Αυτό δεν ισχύει καν σε όλους τους λογαριασμούς που αναδημοσίευσαν τις εικόνες σε ξεχωριστές αναρτήσεις – από τη στιγμή που μια εικόνα κυκλοφορήσει τόσο ευρέως, είναι βασικά αδύνατο να αφαιρεθεί.

Το X δεν διαθέτει την υποδομή για τον εντοπισμό καταχρηστικού περιεχομένου γρήγορα και σε κλίμακα. Ακόμη και στις μέρες του Twitter, αυτό το ζήτημα ήταν δύσκολο να αντιμετωπιστεί, αλλά έχει γίνει πολύ χειρότερο από τότε που ο Μασκ απέσυρε τόσο μεγάλο μέρος του προσωπικού του Twitter, συμπεριλαμβανομένης της πλειοψηφίας του

εμπιστοσύνη και ασφάλεια

της ομάδας. Έτσι, η τεράστια και παθιασμένη βάση θαυμαστών της Taylor Swift πήρε την κατάσταση στα χέρια της, κατακλύζοντας τα αποτελέσματα αναζήτησης για ερωτήματα όπως “taylor swift ai” και “taylor swift

” για να δυσκολέψει τους χρήστες να βρουν τις προσβλητικές εικόνες. Ως γραμματέας Τύπου του Λευκού Οίκου

κάλεσε το Κογκρέσο

για να κάνει κάτι, ο Χ απλώς απαγόρευσε τον όρο αναζήτησης “taylor swift” για μερικές ημέρες. Όταν οι χρήστες έψαχναν το όνομα του μουσικού, θα έβλεπαν μια ειδοποίηση ότι είχε συμβεί κάποιο σφάλμα.

Αυτή η αποτυχία εποπτείας περιεχομένου έγινε εθνική είδηση, αφού η Taylor Swift είναι η Taylor Swift. Αλλά αν οι κοινωνικές πλατφόρμες δεν μπορούν να προστατεύσουν μια από τις πιο διάσημες γυναίκες στον κόσμο, ποια μπορούν να προστατεύσουν;

«Αν σας συμβεί αυτό που συνέβη στην Taylor Swift, όπως συμβαίνει σε τόσους πολλούς ανθρώπους, πιθανότατα δεν θα έχετε την ίδια υποστήριξη με βάση την επιρροή, πράγμα που σημαίνει ότι δεν θα έχετε πρόσβαση σε αυτά πραγματικά σημαντικές κοινότητες φροντίδας», δήλωσε στο TechCrunch η Δρ. Carolina Are, συνεργάτης στο Κέντρο Ψηφιακών Πολιτών του Πανεπιστημίου Northumbria στο Ηνωμένο Βασίλειο. «Και αυτές οι κοινότητες φροντίδας είναι αυτές στις οποίες πρέπει να καταφύγουν οι περισσότεροι χρήστες σε αυτές τις καταστάσεις, κάτι που σας δείχνει πραγματικά την αποτυχία της εποπτείας περιεχομένου».

Η απαγόρευση του όρου αναζήτησης “taylor swift” είναι σαν να βάζεις ένα κομμάτι κολλητικής ταινίας σε ένα σκασμένο σωλήνα. Υπάρχουν πολλές προφανείς λύσεις, όπως το πώς οι χρήστες του TikTok αναζητούν «seggs» αντί για σεξ. Το μπλοκ αναζήτησης ήταν κάτι που ο Χ μπορούσε να εφαρμόσει για να φαίνεται ότι κάνουν κάτι, αλλά δεν εμποδίζει τους ανθρώπους να αναζητούν απλώς το “t swift”. Ο ιδρυτής του Ινστιτούτου Copia και του Techdirt, Mike Masnick

που ονομάζεται

η προσπάθεια «μια έκδοση με σφυρί έλκηθρου εμπιστοσύνης και ασφάλειας».

«Οι πλατφόρμες είναι χάλια όταν πρόκειται να δώσουν σε γυναίκες, σε μη δυαδικά άτομα και σε queer άτομα εξουσία πάνω στο σώμα τους, επομένως αναπαράγουν συστήματα κακοποίησης και πατριαρχίας εκτός σύνδεσης», είπε ο Are. “Εάν τα συστήματα εποπτείας σας δεν είναι σε θέση να αντιδράσουν σε μια κρίση ή εάν τα συστήματα εποπτείας σας δεν είναι σε θέση να ανταποκριθούν στις ανάγκες των χρηστών όταν αναφέρουν ότι κάτι δεν πάει καλά, έχουμε πρόβλημα.”

Λοιπόν, τι έπρεπε να είχε κάνει ο Χ για να αποτρέψει το φιάσκο της Taylor Swift ούτως ή άλλως;

Η Are κάνει αυτές τις ερωτήσεις ως μέρος της

έρευνα

, και προτείνει ότι οι πλατφόρμες κοινωνικής δικτύωσης χρειάζονται μια πλήρη αναθεώρηση του τρόπου με τον οποίο χειρίζονται την εποπτεία περιεχομένου. Πρόσφατα, διεξήγαγε μια σειρά από συζητήσεις στρογγυλής τραπέζης με 45 χρήστες του Διαδικτύου από όλο τον κόσμο που επηρεάζονται από τη λογοκρισία και την κατάχρηση για να εκδώσει συστάσεις σε πλατφόρμες σχετικά με τον τρόπο εφαρμογής της αλλαγής.

Μια σύσταση είναι οι πλατφόρμες μέσων κοινωνικής δικτύωσης να είναι πιο διαφανείς με μεμονωμένους χρήστες σχετικά με αποφάσεις σχετικά με τον λογαριασμό τους ή τις αναφορές τους για άλλους λογαριασμούς.

“Δεν έχετε πρόσβαση σε ένα αρχείο υπόθεσης, παρόλο που οι πλατφόρμες έχουν πρόσβαση σε αυτό το υλικό – απλώς δεν θέλουν να το δημοσιοποιήσουν”, είπε ο Are. «Νομίζω ότι όταν πρόκειται για κακοποίηση, οι άνθρωποι χρειάζονται μια πιο εξατομικευμένη, με βάση τα συμφραζόμενα και γρήγορη απάντηση που περιλαμβάνει, αν όχι βοήθεια πρόσωπο με πρόσωπο, τουλάχιστον άμεση επικοινωνία».

Η X ανακοίνωσε αυτή την εβδομάδα ότι θα προσλάβει 100 συντονιστές περιεχομένου για να εργαστούν σε ένα νέο κέντρο «Εμπιστοσύνη και Ασφάλεια» στο Ώστιν του Τέξας. Ωστόσο, υπό την αρμοδιότητα του Μασκ, η πλατφόρμα δεν έχει δημιουργήσει ισχυρό προηγούμενο για την προστασία των περιθωριοποιημένων χρηστών από την κατάχρηση. Μπορεί επίσης να είναι δύσκολο να λάβουμε τον Μασκ στην ονομαστική του αξία, καθώς ο μεγιστάνας έχει μακρά ιστορία αποτυχίας να τηρήσει τις υποσχέσεις του. Όταν αγόρασε για πρώτη φορά το Twitter, ο Μασκ δήλωσε ότι θα σχηματίσει ένα συμβούλιο εποπτείας περιεχομένου πριν λάβει σημαντικές αποφάσεις. Αυτό δεν συνέβη.

Στην περίπτωση των deepfakes που δημιουργούνται από την τεχνητή νοημοσύνη, το βάρος δεν βαρύνει μόνο τις κοινωνικές πλατφόρμες. Αφορά επίσης τις εταιρείες που δημιουργούν παραγωγικά προϊόντα τεχνητής νοημοσύνης που απευθύνονται στους καταναλωτές.

Σύμφωνα με έρευνα του

404 Μέσα

, οι υβριστικές απεικονίσεις της Swift προέρχονταν από μια ομάδα Telegram αφιερωμένη στη δημιουργία μη συναινετικών, σαφών deepfakes. Οι χρήστες της ομάδας χρησιμοποιούν συχνά το Microsoft Designer, το οποίο αντλεί από το

3 του

για τη δημιουργία εικόνων με βάση τα εισαγόμενα μηνύματα. Σε ένα

πολεμίστρα

που η Microsoft έχει αντιμετωπίσει έκτοτε, οι χρήστες θα μπορούσαν να δημιουργήσουν εικόνες διασημοτήτων γράφοντας προτροπές όπως “taylor ‘τραγουδιστής’ swift” ή “

‘actor’ aniston”.

Ο Shane Jones, κύριος επικεφαλής μηχανικής λογισμικού στη Microsoft

έγραψα ένα γράμμα

στον γενικό εισαγγελέα της πολιτείας της Ουάσιγκτον, δηλώνοντας ότι βρήκε τρωτά σημεία στο DALL-E 3 τον Δεκέμβριο, τα οποία κατέστησαν δυνατή την «παράκαμψη ορισμένων από τα προστατευτικά κιγκλιδώματα που έχουν σχεδιαστεί για να εμποδίζουν το μοντέλο να δημιουργεί και να διανέμει επιβλαβείς εικόνες».

Ο Jones ειδοποίησε τη Microsoft και το OpenAI για τα τρωτά σημεία, αλλά μετά από δύο εβδομάδες, δεν είχε λάβει καμία ένδειξη ότι τα ζητήματα αντιμετωπίζονταν. Έτσι, δημοσίευσε μια ανοιχτή επιστολή στο LinkedIn για να παροτρύνει το OpenAI να αναστείλει τη διαθεσιμότητα του DALL-E 3. Ο Jones ειδοποίησε τη Microsoft για την επιστολή του, αλλά του ζήτησαν αμέσως να το καταργήσει.

«Πρέπει να κάνουμε τις εταιρείες υπεύθυνες για την ασφάλεια των προϊόντων τους και την ευθύνη τους να αποκαλύπτουν γνωστούς κινδύνους στο κοινό», έγραψε ο Τζόουνς στην επιστολή του προς τον γενικό εισαγγελέα. «Οι εργαζόμενοι που ανησυχούν, όπως εγώ, δεν πρέπει να φοβούνται να μείνουν σιωπηλοί».

Καθώς οι εταιρείες με τη μεγαλύτερη επιρροή στον κόσμο στοιχηματίζουν πολλά στην τεχνητή νοημοσύνη, οι πλατφόρμες πρέπει να ακολουθήσουν μια προληπτική προσέγγιση για τη ρύθμιση του καταχρηστικού περιεχομένου – αλλά ακόμη και σε μια εποχή που η δημιουργία deepfakes διασημοτήτων δεν ήταν τόσο εύκολη, η παραβατική συμπεριφορά απέφευγε εύκολα το μέτρο.

«Σας δείχνει πραγματικά ότι οι πλατφόρμες είναι αναξιόπιστες», είπε ο Are. «Οι περιθωριοποιημένες κοινότητες πρέπει να εμπιστεύονται τους οπαδούς και τους συναδέλφους τους περισσότερο από τους ανθρώπους που είναι τεχνικά υπεύθυνοι για την ασφάλειά μας στο διαδίκτυο».


VIA:

techcrunch.com


Follow TechWar.gr on Google News