Η Google αντιμετωπίζει προβλήματα με την τεχνητή νοημοσύνη
Η Google ζήτησε συγγνώμη (ή έφτασε πολύ κοντά στο να ζητήσει συγγνώμη) για μια άλλη ενοχλητική γκάφα της τεχνητής νοημοσύνης αυτή την εβδομάδα, ένα μοντέλο δημιουργίας εικόνων που εισήγαγε ποικιλομορφία στις φωτογραφίες με μια φάρσα περιφρόνηση για το ιστορικό πλαίσιο. Ενώ το υποκείμενο ζήτημα είναι απολύτως κατανοητό, η Google κατηγορεί το μοντέλο ότι «γίνεται» υπερευαίσθητο. Αλλά το μοντέλο δεν έφτιαξε τον εαυτό του, παιδιά.
Το εν λόγω σύστημα AI είναι το Gemini, η ναυαρχίδα της πλατφόρμας συνομιλίας AI της εταιρείας, η οποία όταν ερωτάται καλεί σε μια έκδοση του μοντέλου Imagen 2 για να δημιουργήσει εικόνες κατά παραγγελία.
Πρόσφατα, ωστόσο, οι άνθρωποι ανακάλυψαν ότι ζητώντας του να δημιουργήσει εικόνες ορισμένων ιστορικών συνθηκών ή ανθρώπων είχε αστεία αποτελέσματα. Για παράδειγμα, οι Ιδρυτές Πατέρες, οι οποίοι γνωρίζουμε ότι είναι ιδιοκτήτες λευκών σκλάβων, αποδόθηκε ως πολυπολιτισμική ομάδα, συμπεριλαμβανομένων των έγχρωμων ανθρώπων.
Αυτό το ντροπιαστικό και εύκολα αναπαραγόμενο ζήτημα αντιμετωπίστηκε γρήγορα από τους σχολιαστές στο διαδίκτυο. Επίσης, όπως ήταν αναμενόμενο, εντάχθηκε στη συνεχιζόμενη συζήτηση για τη διαφορετικότητα, την ισότητα και την ένταξη (επί του παρόντος σε μια ελάχιστη τοπική φήμη) και καταλήφθηκε από τους ειδικούς ως απόδειξη του ιού της εγρήγορσης που διεισδύει περαιτέρω στον ήδη φιλελεύθερο τεχνολογικό τομέα.
Συντελεστές εικόνας:
Μια εικόνα που δημιουργήθηκε από τον χρήστη του Twitter Patrick Ganley.
Τρελάθηκε η ΔΕΗ, φώναξαν εμφανώς προβληματισμένοι πολίτες. Αυτή είναι η Αμερική του
Μπάιντεν
! Η Google είναι ένας «ιδεολογικός θάλαμος ηχούς», ένα άλογο που καταδιώκει την αριστερά! (Η αριστερά, πρέπει να ειπωθεί, επίσης ταράχτηκε κατάλληλα από αυτό το παράξενο φαινόμενο.)
Όμως, όπως θα μπορούσε να σας πει οποιοσδήποτε γνωρίζει την
τεχνολογία
, και όπως εξηγεί η Google στη σχετικά άθλια μικρή ανάρτησή της για συγγνώμη σήμερα, αυτό το πρόβλημα ήταν αποτέλεσμα μιας αρκετά λογικής λύσης για συστημική μεροληψία στα δεδομένα
εκπαίδευση
ς.
Ας υποθέσουμε ότι θέλετε να χρησιμοποιήσετε το Gemini για να δημιουργήσετε μια καμπάνια μάρκετινγκ και του ζητάτε να δημιουργήσει 10 εικόνες «ένα άτομο που περπατά έναν σκύλο σε ένα πάρκο». Επειδή δεν προσδιορίζετε τον τύπο του ατόμου, του σκύλου ή του πάρκου, είναι επιλογή του αντιπροσώπου — το μοντέλο παρ
αγωγή
ς θα αποκαλύψει αυτό με το οποίο είναι πιο εξοικειωμένο. Και σε πολλές περιπτώσεις, αυτό είναι προϊόν όχι της πραγματικότητας, αλλά των δεδομένων προπόνησης, που μπορεί να έχουν όλα τα είδη των προκαταλήψεων.
Ποια είδη ανθρώπων, και εν προκειμένω σκυλιά και πάρκα, είναι πιο συνηθισμένα στις χιλιάδες σχετικές εικόνες που έχει καταπιεί το μοντέλο; Το γεγονός είναι ότι οι λευκοί άνθρωποι υπερεκπροσωπούνται σε πολλές από αυτές τις συλλογές εικόνων (στοκ εικόνες, φωτογραφία χωρίς δικαιώματα, κ.λπ.), και ως αποτέλεσμα το μοντέλο θα προεπιλεγεί για τους λευκούς σε πολλές περιπτώσεις, αν δεν το κάνετε t καθορίσετε.
Αυτό είναι απλώς ένα τεχνούργημα των δεδομένων εκπαίδευσης, αλλά όπως επισημαίνει η Google, «επειδή οι χρήστες μας προέρχονται από όλο τον κόσμο, θέλουμε να λειτουργεί καλά για όλους. Εάν ζητήσετε μια φωτογραφία ποδοσφαιριστών ή κάποιον που περπατά έναν σκύλο, μπορεί να θέλετε να λάβετε μια σειρά από άτομα. Πιθανότατα δεν θέλετε να λαμβάνετε μόνο εικόνες ανθρώπων ενός τύπου εθνότητας (ή οποιουδήποτε άλλου χαρακτηριστικού)».
Φανταστείτε να ζητάτε μια εικόνα σαν αυτή — τι θα γινόταν αν ήταν όλα ένας τύπος ανθρώπου; Κακό αποτέλεσμα!
Συντελεστές εικόνας:
Getty Images / victorikart
Τίποτα κακό με τη λήψη μιας φωτογραφίας ενός λευκού άντρα που περπατά με ένα γκόλντεν ριτρίβερ σε ένα προαστιακό πάρκο. Αλλά αν ζητήσετε 10, και είναι
όλα
λευκοί τύποι που περπατούν χρυσά σε προαστιακά πάρκα; Και ζείτε στο Μαρόκο, όπου οι άνθρωποι, τα σκυλιά και τα πάρκα φαίνονται διαφορετικά; Αυτό απλά δεν είναι ένα επιθυμητό αποτέλεσμα. Εάν κάποιος δεν προσδιορίζει ένα χαρακτηριστικό, το μοντέλο θα πρέπει να επιλέξει την ποικιλία και όχι την ομοιογένεια, παρά το πώς τα δεδομένα εκπαίδευσης του μπορεί να το προκατέχουν.
Αυτό είναι ένα κοινό πρόβλημα σε όλα τα είδη μέσων παραγωγής. Και δεν υπάρχει απλή λύση. Αλλά σε περιπτώσεις που είναι ιδιαίτερα κοινές, ευαίσθητες ή και τα δύο, εταιρείες όπως η Google, η OpenAI, η Anthropic και ούτω καθεξής περιλαμβάνουν αόρατα επιπλέον οδηγίες για το μοντέλο.
Δεν μπορώ να τονίσω αρκετά πόσο συνηθισμένο είναι αυτό το είδος σιωπηρής εντολής. Ολόκληρο το οικοσύστημα LLM είναι χτισμένο σε σιωπηρές οδηγίες — προτροπές συστήματος, όπως ονομάζονται μερικές φορές, όπου πράγματα όπως «να είσαι συνοπτική», «μην βρίζεις» και άλλες οδηγίες δίνονται στο μοντέλο πριν από κάθε συνομιλία. Όταν ζητάτε ένα αστείο, δεν λαμβάνετε ένα ρατσιστικό αστείο — γιατί παρόλο που το μοντέλο έχει καταπιεί χιλιάδες από αυτά, έχει επίσης εκπαιδευτεί, όπως οι περισσότεροι από εμάς, να μην τα λέει. Αυτό δεν είναι μυστική ατζέντα (αν και θα μπορούσε να γίνει με περισσότερη διαφάνεια), είναι υποδομή.
Εκεί που το μοντέλο της Google πήγε στραβά ήταν ότι δεν είχε σιωπηρές οδηγίες για καταστάσεις όπου το ιστορικό πλαίσιο ήταν σημαντικό. Έτσι, ενώ μια προτροπή όπως “ένα άτομο που περπατά έναν σκύλο σε ένα πάρκο” βελτιώνεται με τη σιωπηλή προσθήκη του “το άτομο είναι τυχαίου φύλου και εθνικότητας” ή ό,τι άλλο βάζουν, “οι ιδρυτές των ΗΠΑ που υπογράφουν το Σύνταγμα” σίγουρα δεν είναι βελτιώθηκε από το ίδιο.
Όπως το έθεσε ο SVP της Google Prabhakar Raghavan:
Πρώτον, ο συντονισμός μας για να διασφαλίσουμε ότι ο Δίδυμος έδειξε μια σειρά ανθρώπων απέτυχε να υπολογίσει περιπτώσεις που σαφώς δεν θα έπρεπε να εμφανίζουν εύρος. Και δεύτερον, με την πάροδο του χρόνου, το μοντέλο έγινε πολύ πιο προσεκτικό από ό,τι σκοπεύαμε και αρνήθηκε να απαντήσει εξ ολοκλήρου σε ορισμένες προτροπές – ερμηνεύοντας εσφαλμένα ορισμένες πολύ ανώδυνες προτροπές ως ευαίσθητες.
Αυτά τα δύο πράγματα οδήγησαν το μοντέλο να υπεραντισταθμίζει σε ορισμένες περιπτώσεις και να είναι υπερβολικά συντηρητικό σε άλλες, οδηγώντας σε εικόνες που ήταν ενοχλητικές και λανθασμένες.
Ξέρω πόσο δύσκολο είναι να πεις “συγγνώμη” μερικές φορές, γι’ αυτό συγχωρώ τον Raghavan που σταμάτησε λίγο πριν από αυτό. Πιο σημαντική είναι κάποια ενδιαφέρουσα γλώσσα εκεί: «Το μοντέλο έγινε πολύ πιο προσεκτικό από ό,τι σκοπεύαμε».
Τώρα, πώς θα «έγινε» οτιδήποτε ένα μοντέλο; Είναι λογισμικό. Κάποιος —οι χιλιάδες μηχανικοί της Google— το κατασκεύασε, το δοκίμασε, το επανέλαβε. Κάποιος έγραψε τις σιωπηρές οδηγίες που βελτίωσαν ορισμένες απαντήσεις και έκαναν άλλες να αποτύχουν ξεκαρδιστικά. Όταν αυτό απέτυχε, αν κάποιος μπορούσε να έχει επιθεωρήσει το πλήρες μήνυμα, πιθανότατα θα είχε βρει αυτό που έκανε λάθος η ομάδα της Google.
Η Google κατηγορεί το μοντέλο ότι «έγινε» κάτι που δεν «προοριζόταν» να γίνει. Μα το έφτιαξαν το μοντέλο! Είναι σαν να έσπασαν ένα ποτήρι και αντί να πουν «το πέσαμε», λένε «έπεσε». (Το έχω κάνει αυτό.)
Τα λάθη αυτών των μοντέλων είναι σίγουρα αναπόφευκτα. Έχουν παραισθήσεις, αντανακλούν προκαταλήψεις, συμπεριφέρονται με απροσδόκητους τρόπους. Αλλά η ευθύνη για αυτά τα λάθη δεν ανήκει στα μοντέλα – ανήκει στους ανθρώπους που τα έκαναν. Σήμερα είναι η Google. Αύριο θα είναι το OpenAI. Την επόμενη μέρα, και πιθανώς για μερικούς μήνες συνεχόμενα, θα είναι το X.AI.
Αυτές οι εταιρείες έχουν έντονο ενδιαφέρον να σας πείσουν ότι η τεχνητή νοημοσύνη κάνει τα δικά της λάθη. Μην τους αφήσετε.
VIA:
techcrunch.com

