Η Google αποκαλύπτει: Τι έμαθαν τα μωρά Anti-Woke από τους Μαύρους Βίκινγκς του Διδύμου




Το chatbot AI της Google Gemini

έχει ένα μοναδικό πρόβλημα. Δυσκολεύεται να δημιουργήσει φωτογραφίες λευκών ανθρώπων, που συχνά γυρίζουν


Βίκινγκς


,


Οι ιδρυτές


και


Καναδοί παίκτες χόκεϋ


σε έγχρωμους ανθρώπους. Αυτό πυροδότησε οργή από την κοινότητα κατά της αφύπνισης, ισχυριζόμενη ότι υπάρχει ρατσισμός εναντίον των λευκών. Σήμερα, η Google αναγνώρισε το λάθος του Gemini.

“Εργαζόμαστε για να βελτιώσουμε αμέσως αυτού του είδους τις απεικονίσεις”, δήλωσε η Google Communications σε α


δήλωση


. «Η δημιουργία εικόνων AI του Gemini δημιουργεί ένα ευρύ φάσμα ανθρώπων. Και αυτό είναι γενικά καλό γιατί το χρησιμοποιούν άνθρωποι σε όλο τον κόσμο. Αλλά χάνει το σημάδι εδώ».

Οι χρήστες επεσήμαναν ότι οι Δίδυμοι, κατά καιρούς, αρνούνταν αιτήματα όταν τους ζητούνταν συγκεκριμένα να δημιουργήσουν εικόνες λευκών ανθρώπων. Ωστόσο, όταν έγιναν αιτήματα για εικόνες μαύρων ανθρώπων, ο Δίδυμος δεν είχε κανένα πρόβλημα. Αυτό είχε ως αποτέλεσμα την οργή της κοινότητας κατά της αφύπνισης στις πλατφόρμες μέσων κοινωνικής δικτύωσης, όπως το X, καλώντας για άμεση δράση.

Στιγμιότυπα οθόνης λογαριασμών anti-wake που καλούν τη δημιουργία εικόνων του Google Gemini σε tweets.
Στιγμιότυπο οθόνης

:

Χ


Η αναγνώριση του σφάλματος από την Google είναι, για να το θέσω ελαφρά, εκπληκτική, δεδομένου ότι οι γεννήτριες εικόνων AI έχουν κάνει τρομερή δουλειά στην απεικόνιση έγχρωμων ανθρώπων. Μια έρευνα από την Washington Post διαπίστωσε ότι η γεννήτρια εικόνας AI, Stable Diffusion,


σχεδόν πάντα αναγνώριζε τους παραλήπτες κουπόνι τροφίμων ως Μαύρο


, παρόλο που το 63% των παραληπτών είναι λευκοί. Το Midjourney δέχτηκε κριτική από έναν ερευνητή όταν έγινε


απέτυχε επανειλημμένα να δημιουργήσει


ένας «Μαύρος Αφρικανός γιατρός που θεραπεύει λευκά παιδιά», σύμφωνα με το NPR.

Πού ήταν αυτή η οργή όταν οι γεννήτριες εικόνων AI δεν σεβάστηκαν τους μαύρους; Το Gizmodo δεν βρήκε περιπτώσεις Gemini που να απεικονίζουν επιβλαβή στερεότυπα λευκών ανθρώπων, αλλά η γεννήτρια εικόνας AI απλώς αρνήθηκε να τα δημιουργήσει μερικές φορές. Αν και η αποτυχία δημιουργίας εικόνων μιας συγκεκριμένης φυλής είναι σίγουρα ένα πρόβλημα, δεν αποτελεί κερί για τις ξεκάθαρες παραβάσεις της κοινότητας της τεχνητής νοημοσύνης κατά των Μαύρων.

Το OpenAI παραδέχεται ακόμη και στα εκπαιδευτικά δεδομένα του Dall-E ότι η γεννήτρια εικόνων AI του «


κληρονομεί διάφορες προκαταλήψεις από τα εκπαιδευτικά του δεδομένα


, και τα αποτελέσματά του ενισχύουν μερικές φορές τα κοινωνικά στερεότυπα». Το OpenAI και η Google προσπαθούν να καταπολεμήσουν αυτές τις προκαταλήψεις, αλλά το chatbot τεχνητής νοημοσύνης του Elon Musk, Grok, προσπαθεί να τις αγκαλιάσει.


Το «αντι-ξυπνημένο chatbot» του Μασκ, Γκροκ

είναι αφιλτράριστο για πολιτική ορθότητα. Ισχυρίζεται ότι πρόκειται για ένα ρεαλιστικό, ειλικρινές chatbot AI. Αν και αυτό μπορεί να ισχύει, τα εργαλεία τεχνητής νοημοσύνης μπορούν να ενισχύσουν τις προκαταλήψεις με τρόπους που δεν καταλαβαίνουμε ακόμα. Η γκάφα της Google σχετικά με τη δημιουργία λευκών ανθρώπων φαίνεται πιθανό να είναι αποτέλεσμα αυτών των φίλτρων ασφαλείας.

Η τεχνολογία είναι ιστορικά μια πολύ λευκή βιομηχανία. Δεν υπάρχουν καλά σύγχρονα δεδομένα για την πολυμορφία στην τεχνολογία, αλλά


Το 83% των στελεχών τεχνολογίας ήταν λευκοί το 2014


. Μια μελέτη από το Πανεπιστήμιο της Μασαχουσέτης διαπίστωσε


η ποικιλομορφία της τεχνολογίας μπορεί να βελτιώνεται


αλλά πιθανότατα υστερεί σε σχέση με άλλους κλάδους. Για αυτούς τους λόγους, είναι λογικό γιατί η σύγχρονη τεχνολογία θα μοιράζεται τις προκαταλήψεις των λευκών ανθρώπων.

Μια περίπτωση όπου αυτό προκύπτει, με πολύ συνεπακόλουθο τρόπο, είναι η τεχνολογία αναγνώρισης προσώπου (FRT) που χρησιμοποιείται από την αστυνομία. Το FRT έχει επανειλημμένα


δεν κατάφερε να ξεχωρίσει τα μαύρα πρόσωπα


και δείχνει πολύ μεγαλύτερη ακρίβεια με λευκές όψεις. Αυτό δεν είναι υποθετικό και δεν αφορά μόνο πληγωμένα συναισθήματα. Η τεχνολογία είχε ως αποτέλεσμα την παράνομη σύλληψη και φυλάκιση του α


Μαύρος στη Βαλτιμόρη


ένα


Μαύρη μητέρα στο Ντιτρόιτ


και αρκετοί άλλοι αθώοι έγχρωμοι.

Η τεχνολογία αντανακλούσε πάντα αυτούς που την κατασκεύασαν και αυτά τα προβλήματα εξακολουθούν να υπάρχουν και σήμερα. Αυτή την εβδομάδα, το Wired ανέφερε ότι chatbots τεχνητής νοημοσύνης από το δίκτυο κοινωνικής δικτύωσης «ελεύθερης ομιλίας» Gab


έλαβαν εντολή να αρνηθούν το ολοκαύτωμα


. Το εργαλείο φέρεται να σχεδιάστηκε από μια ακροδεξιά πλατφόρμα και το chatbot AI φαίνεται να ευθυγραμμίζεται.

Υπάρχει ένα μεγαλύτερο πρόβλημα με την τεχνητή νοημοσύνη: αυτά τα εργαλεία αντικατοπτρίζουν και ενισχύουν τις προκαταλήψεις μας ως άνθρωποι. Τα εργαλεία AI εκπαιδεύονται στο Διαδίκτυο, το οποίο είναι γεμάτο ρατσισμό, σεξισμό και προκατάληψη. Αυτά τα εργαλεία θα κάνουν εγγενώς τα ίδια λάθη που έχει η κοινωνία μας και αυτά τα ζητήματα χρειάζονται περισσότερη προσοχή.

Η Google φαίνεται να έχει αυξήσει την επικράτηση των έγχρωμων ανθρώπων στις εικόνες του Gemini. Αν και αυτό αξίζει μια διόρθωση, αυτό δεν θα πρέπει να επισκιάσει τα μεγαλύτερα προβλήματα που αντιμετωπίζει η βιομηχανία τεχνολογίας σήμερα. Οι λευκοί είναι σε μεγάλο βαθμό αυτοί που κατασκευάζουν μοντέλα τεχνητής νοημοσύνης και σε καμία περίπτωση δεν είναι τα κύρια θύματα της ριζωμένης τεχνολογικής προκατάληψης.


VIA:

gizmodo.com


Follow TechWar.gr on Google News