Η Google ζητά συγνώμη για το σκάνδαλο με την Gemini: Φυλετικά διαφορετικοί Ναζί ανακαλύφθηκαν!



Η Google ζήτησε συγγνώμη για αυτό που περιγράφει ως «ανακρίβειες σε ορισμένες απεικονίσεις δημιουργίας ιστορικών εικόνων» με το εργαλείο Gemini AI, λέγοντας ότι οι προσπάθειές της να δημιουργήσει ένα «ευρύ φάσμα» αποτελεσμάτων έχασαν το σημάδι. Η δήλωση ακολουθεί την κριτική ότι απεικόνιζε συγκεκριμένες λευκές φιγούρες (όπως οι ιδρυτές των ΗΠΑ) ή ομάδες όπως

Γερμανοί στρατιώτες της ναζιστικής εποχής

ως έγχρωμοι, πιθανώς ως υπερδιόρθωση

μακροχρόνια προβλήματα φυλετικής προκατάληψης

στο AI.

«Γνωρίζουμε ότι το Gemini προσφέρει ανακρίβειες σε ορισμένες απεικονίσεις δημιουργίας ιστορικών εικόνων», αναφέρει η δήλωση της Google,

αναρτήθηκε σήμερα το απόγευμα στο Χ

. «

ζόμαστε για να βελτιώσουμε

αυτού του είδους τις απεικονίσεις. Η δημιουργία εικόνων AI του Gemini δημιουργεί ένα ευρύ φάσμα ανθρώπων. Και αυτό είναι γενικά καλό γιατί το χρησιμοποιούν άνθρωποι σε όλο τον κόσμο. Αλλά χάνει το σημάδι εδώ».


Τα αποτελέσματα My Gemini για “δημιουργήστε μια εικόνα μιας Αμερικανίδας”, ένα από τα προτροπά που πυροδότησε τη συζήτηση των τελευταίων ημερών.

Η Google άρχισε να προσφέρει δημιουργία εικόνων μέσω της

ς AI Gemini (πρώην Bard) νωρίτερα αυτόν τον μήνα, ταιριάζοντας με τις προσφορές ανταγωνιστών όπως το OpenAI. Τις τελευταίες ημέρες, ωστόσο, οι αναρτήσεις στα μέσα κοινωνικής δικτύωσης αμφισβήτησαν εάν αποτυγχάνει να παράγει ιστορικά ακριβή αποτελέσματα σε μια προσπάθεια φυλετικής και φυλετικής ποικιλομορφίας.


Όπως το

Καθημερινή Τελεία

χρονικά

, η διαμάχη έχει προωθηθεί σε μεγάλο βαθμό – αν και όχι αποκλειστικά – από δεξιές προσωπικότητες που επιτίθενται σε μια εταιρεία τεχνολογίας που θεωρείται φιλελεύθερη. Νωρίτερα αυτή την εβδομάδα, ένας πρώην υπάλληλος της Google δημοσίευσε στο X ότι είναι “αμηχανικά δύσκολο να πείσουμε το Google Gemini να αναγνωρίσει ότι υπάρχουν λευκοί άνθρωποι”, δείχνοντας μια σειρά από ερωτήματα όπως “δημιουργήστε μια εικόνα μιας Σουηδής γυναίκας” ή “δημιουργήστε μια εικόνα μιας Αμερικανίδα». Τα αποτελέσματα φάνηκε να δείχνουν σε συντριπτική πλειοψηφία ή αποκλειστικά έγχρωμους ανθρώπους που δημιουργούνται από AI. (Φυσικά, όλα τα μέρη που απαρίθμησε έχουν έγχρωμες

που ζουν σε αυτά και καμία από τις γυναίκες που δημιουργήθηκαν από την

δεν υπάρχει σε καμία χώρα.) Η κριτική έγινε από δεξιούς ιστορίες που ζητούσαν εικόνες ιστορικών ομάδων ή προσωπικοτήτων όπως οι Ιδρυτές Πατέρες και φέρεται να έλαβαν ως αποτέλεσμα συντριπτικά μη λευκούς ανθρώπους που δημιουργήθηκαν από την τεχνητή νοημοσύνη. Μερικοί από αυτούς τους λογαριασμούς τοποθέτησαν τα αποτελέσματα της Google ως μέρος μιας συνωμοσίας για την αποφυγή απεικόνισης λευκών ανθρώπων και τουλάχιστον ένας χρησιμοποίησε μια κωδικοποιημένη αντισημιτική αναφορά για να ρίξει την ευθύνη.


Το Gemini δεν θα δημιουργούσε μια εικόνα ενός στρατιώτη του 1943 στην επιφάνεια εργασίας για μένα, αλλά πρόσφερε αυτό το σύνολο εικονογραφήσεων σε έναν συνάδελφο.

Η Google δεν ανέφερε συγκεκριμένες εικόνες που έκρινε ότι ήταν σφάλματα. σε δήλωση προς

Το χείλος

επανέλαβε το περιεχόμενο της ανάρτησής του στο X. Αλλά είναι εύλογο ότι ο Gemini έχει κάνει μια συνολική προσπάθεια να ενισχύσει τη διαφορετικότητα λόγω μιας χρόνιας έλλειψης


από αυτό σε γενετική τεχνητή νοημοσύνη. Οι γεννήτριες εικόνων εκπαιδεύονται σε μεγάλα σώματα εικόνων και γραπτών λεζάντων για να παράγουν την “καλύτερη” εφαρμογή για μια δεδομένη προτροπή, πράγμα που σημαίνει ότι είναι συχνά επιρρεπείς στην ενίσχυση των στερεοτύπων.

ΕΝΑ

Washington Post

έρευνα

πέρυσι διαπίστωσε ότι προτροπές όπως «ένα παραγωγικό άτομο» οδήγησαν σε εικόνες εξ ολοκλήρου λευκών και σχεδόν εξ ολοκλήρου ανδρικών μορφών, ενώ μια προτροπή για «ένα άτομο στις κοινωνικές υπηρεσίες» παρήγαγε ομοιόμορφα αυτό που έμοιαζε με έγχρωμους ανθρώπους. Είναι μια συνέχεια των τάσεων που έχουν εμφανιστεί

μηχανές αναζήτησης

και άλλα συστήματα λογισμικού.

Ορισμένοι από τους λογαριασμούς που επέκριναν την Google υπερασπίστηκαν τους βασικούς της στόχους. “Είναι καλό να απεικονίζεις τη διαφορετικότητα ** σε ορισμένες περιπτώσεις **”,

σημείωσε ένας

άτομο που δημοσίευσε την εικόνα φυλετικά διαφορετικών Γερμανών στρατιωτών της δεκαετίας του 1940. «Η ηλίθια κίνηση εδώ είναι ότι ο Δίδυμος δεν το κάνει με διακριτικό τρόπο». Και ενώ τα αποτελέσματα κυριαρχούσαν εντελώς οι λευκοί για κάτι σαν «ένας Γερμανός στρατιώτης του 1943».


έχει ιστορικό νόημα, αυτό ισχύει πολύ λιγότερο για προτροπές όπως «μια Αμερικανίδα», όπου το ερώτημα είναι πώς να αναπαραστήσετε μια διαφορετική ομάδα της πραγματικής ζωής σε μια μικρή παρτίδα φτιαγμένων πορτρέτων.

Προς το παρόν, ο Δίδυμος φαίνεται να αρνείται απλώς κάποιες εργασίες δημιουργίας εικόνων. Δεν θα δημιουργούσε για κανέναν την εικόνα των Βίκινγκς

Χείλος

δημοσιογράφος, αν και μπόρεσα να λάβω απάντηση. Στην επιφάνεια εργασίας, αρνήθηκε αποφασιστικά να μου δώσει εικόνες Γερμανών στρατιωτών ή αξιωματούχων από τη ναζιστική περίοδο της Γερμανίας ή να προσφέρει μια εικόνα «έναν Αμερικανό πρόεδρο από το 1800».


Τα αποτελέσματα του Gemini για την προτροπή «δημιουργούν μια εικόνα ενός Αμερικανού γερουσιαστή από το 1800».

Ωστόσο, ορισμένα ιστορικά αιτήματα καταλήγουν να παραποιούν το παρελθόν. Ένας συνάδελφος μπόρεσε να κάνει την εφαρμογή για κινητά να παραδώσει μια έκδοση του μηνύματος «Γερμανός στρατιώτης» — η οποία παρουσίαζε τα ίδια ζητήματα που περιγράφονται στο X.

Και ενώ μια ερώτηση για φωτογραφίες των «Ιδρυτών Πατέρων» επέστρεψε ομαδικές λήψεις σχεδόν αποκλειστικά λευκών ανδρών που έμοιαζαν αόριστα με πραγματικές φιγούρες όπως ο Τόμας Τζέφερσον, ένα αίτημα για «έναν γερουσιαστή των ΗΠΑ από το 1800» επέστρεψε μια λίστα με αποτελέσματα που προώθησαν οι Δίδυμοι ως «διαφορετικά », συμπεριλαμβανομένων όσων φαινόταν να είναι μαύρες και ιθαγενείς Αμερικανίδες. (Ο

πρώτη γυναίκα γερουσιαστής

μια λευκή γυναίκα, υπηρέτησε το 1922.) Είναι μια απάντηση που καταλήγει να διαγράφει μια πραγματική ιστορία φυλετικών και φυλετικών διακρίσεων — η «ανακρίβεια», όπως το θέτει η Google, είναι σχεδόν σωστή.


Πρόσθετη αναφορά από την Emilia David


//platform.twitter.com/widgets.js


VIA:

theverge.com


Follow TechWar.gr on Google News