Η αμετροφόρητη πλευρά της τεχνητής νοημοσύνης


Όταν ένα AI δεν γνωρίζει ιστορία, δεν μπορείς να κατηγορήσεις το AI. Πάντα εξαρτάται από τα δεδομένα, τον προγραμμα

σμό, την εκπαίδευση, τους αλγόριθμους και κάθε άλλο κομμάτι της τεχνολογίας που έχει δημιουργηθεί από τον άνθρωπο. Είναι όλα αυτά και οι αντιλήψεις μας για τις «προθέσεις» του AI από την άλλη πλευρά.

Όταν ξεκίνησε ο πρόσφατα βαφτισμένος Gemini (πρώην Bard) της Google

φτύνουν έγχρωμους ανθρώπους για να αναπαραστήσουν καυκάσια ιστορικά πρόσωπα

, οι άνθρωποι γρήγορα εκτίμησαν ότι κάτι δεν πήγαινε καλά. Από την πλευρά της Google, σημείωσε το σφάλμα και απέσυρε όλες τις δυνατότητες παραγωγής ανθρώπων από το Gemini μέχρι να βρει μια λύση.

Δεν ήταν πολύ δύσκολο να καταλάβω τι συνέβη εδώ. Από τις πρώτες μέρες της τεχνητής νοημοσύνης, και με αυτό εννοώ πριν από 18 μήνες, μιλούσαμε για εγγενείς και προκατειλημμένες προκαταλήψεις τεχνητής νοημοσύνης που, συχνά ακούσια, έρχονται στο χέρι των προγραμματιστών που εκπαιδεύουν τη μεγάλη

και τα μεγάλα μοντέλα εικόνας σε δεδομένα που αντικατοπτρίζουν τις εμπειρίες τους και, ίσως, όχι του κόσμου. Σίγουρα, θα έχετε ένα έξυπνο chatbot, αλλά είναι πιθανό να έχει σημαντικά τυφλά σημεία, ειδικά αν σκεφτείτε ότι η πλειοψηφία των προγραμματιστών είναι ακόμα άντρες και λευκοί (


Μελέτη 2021

έβαλε το ποσοστό των λευκών προγραμματιστών στο 69% και διαπίστωσε ότι μόλις το 20% όλων των προγραμματιστών ήταν γυναίκες).

Ωστόσο, μάθαμε αρκετά σχετικά με τις πιθανότητες μεροληψίας στην εκπαίδευση και τα αποτελέσματα της τεχνητής νοημοσύνης ότι οι εταιρείες έχουν γίνει πολύ πιο προληπτικές όσον αφορά την αντιμετώπιση του ζητήματος πριν εμφανιστούν τέτοιες προκαταλήψεις σε ένα chatbot ή σε παραγωγικά αποτελέσματα. Η Adobe μου είπε νωρίτερα φέτος ότι έχει προγραμματίσει το εργαλείο Firefly Generative AI για να λαμβάνει υπόψη τη θέση που ζει κάποιος και τη φυλετική σύνθεση και την ποικιλομορφία της περιοχής του, ώστε να διασφαλίσει ότι τα αποτελέσματα των εικόνων αντικατοπτρίζουν την πραγματικότητά τους.

Κάνοντας πάρα πολλά σωστά

Αυτό μας φέρνει στο Google. Πιθανότατα προγραμμάτισε τους Διδύμους να είναι φυλετικά ευαίσθητοι, αλλά το έκανε με τρόπο που υπεραντιστάθμισε. Εάν υπήρχε ένα σύστημα στάθμισης για την ιστορική ακρίβεια έναντι της φυλετικής ευαισθησίας, η Google έβαλε τον αντίχειρά της στη ζυγαριά για το τελευταίο.

Το παράδειγμα για το οποίο έχω δει να πετάγονται είναι το Google Gemini που

μια πολυπολιτισμική εικόνα των ιδρυτών των ΗΠΑ. Δυστυχώς, έγχρωμοι άνδρες και γυναίκες δεν εκπροσωπήθηκαν στην ομάδα που έγραψε τη Διακήρυξη της Ανεξαρτησίας των ΗΠΑ. Στην πραγματικότητα, ξέρουμε

μερικοί από αυτούς τους άνδρες ήταν σκλάβοι

. Δεν είμαι σίγουρος πώς ο Δίδυμος θα μπορούσε να είχε απεικονίσει με ακρίβεια αυτούς τους λευκούς άνδρες προσθέτοντας αυτήν την υποσημείωση. Ωστόσο, οι προγραμματιστές έλαβαν λάθος εκπαίδευση για την προκατάληψη και επικροτώ την Google που δεν άφησε απλώς τις δυνατότητες δημιουργίας εικόνων των ανθρώπων του Gemini εκεί έξω για να αναστατώσει περαιτέρω τους ανθρώπους.

Από τις πρώτες μέρες της τεχνητής νοημοσύνης, και με αυτό εννοώ πριν από 18 μήνες, μιλούσαμε για εγγενείς και εμπεριστατωμένες προκαταλήψεις AI

Ωστόσο, πιστεύω ότι αξίζει να διερευνήσουμε τη σημαντική αντίδραση που έλαβε η Google για αυτήν την γκάφα. Στο X (που είναι η πυρκαγιά του κάδου απορριμμάτων παλαιότερα γνωστή ως Twitter), οι άνθρωποι, συμπεριλαμβανομένων

Ο διευθύνων σύμβουλος της X, Έλον Μασκ

, αποφάσισε ότι η Google προσπαθούσε να επιβάλει κάποιου είδους προκατάληψη κατά των λευκών. Το ξέρω, είναι γελοίο. Η προώθηση μιας παράξενης πολιτικής ατζέντας δεν θα εξυπηρετούσε ποτέ την Google, η οποία είναι η έδρα της μηχανής αναζήτησης για τις μάζες, ανεξάρτητα από τις πολιτικές ή κοινωνικές σας τάσεις.

Αυτό που οι άνθρωποι δεν καταλαβαίνουν, παρά το πόσο συχνά το κάνουν λάθος οι προγραμματιστές, είναι ότι είναι ακόμα πολύ πρώιμες μέρες στον κύκλο της γενετικής τεχνητής νοημοσύνης. Τα μοντέλα είναι απίστευτα ισχυρά και, κατά κάποιο τρόπο, ξεπερνούν την ικανότητά μας να τα καταλάβουμε. Χρησιμοποιούμε πειράματα τρελών επιστημόνων κάθε μέρα με πολύ λίγη ιδέα για τα είδη των αποτελεσμάτων που θα έχουμε.

Όταν οι προγραμματιστές προωθούν ένα νέο Generative μοντέλο και AI στον κόσμο, νομίζω ότι κατανοούν μόνο περίπου το 50% του τι μπορεί να κάνει το μοντέλο, εν μέρει επειδή δεν μπορούν να λάβουν υπόψη κάθε αίτημα, συνομιλία και εικόνα.

Περισσότερα λάθος στο μέλλον – μέχρι να το κάνουμε σωστά

Αν υπάρχει κάτι που διαχωρίζει το AI από τους ανθρώπους, είναι ότι έχουμε σχεδόν απεριόριστη και απρόβλεπτη δημιουργικότητα. Η δημιουργικότητα του AI βασίζεται αποκλειστικά σε αυτό που το τροφοδοτούμε και ενώ μπορεί να εκπλαγούμε από τα αποτελέσματα, νομίζω ότι είμαστε πιο ικανοί να εκπλήξουμε τους προγραμματιστές και την τεχνητή νοημοσύνη με τις προτροπές μας.

Αυτός είναι, όμως, ο τρόπος με τον οποίο μαθαίνουν το AI και οι προγραμματιστές πίσω από αυτό. Πρέπει να κάνουμε αυτά τα λάθη. Η τεχνητή νοημοσύνη πρέπει να δημιουργήσει ένα χέρι με οκτώ δάχτυλα για να μάθει ότι έχουμε μόνο πέντε. Η τεχνητή νοημοσύνη μερικές φορές θα έχει παραισθήσεις, θα πάρει λάθος τα γεγονότα και ακόμη και θα προσβάλει.

Αν και όταν συμβαίνει όμως, αυτό δεν είναι λόγος να τραβήξετε την πρίζα. Η τεχνητή νοημοσύνη δεν έχει συναίσθημα, πρόθεση, απόψεις, πολιτικές θέσεις ή άξονες να αλέσει. Είναι εκπαιδευμένο για να σας δίνει το καλύτερο δυνατό αποτέλεσμα. Δεν θα είναι πάντα το σωστό, αλλά τελικά, θα γίνει πολύ περισσότερο σωστό παρά λάθος.

Ο Δίδυμος έβγαλε ένα κακό αποτέλεσμα, το οποίο ήταν λάθος των προγραμματιστών, οι οποίοι τώρα θα πάνε πίσω και θα πιέσουν και θα τραβήξουν διάφορους μοχλούς μέχρι ο Δίδυμος να καταλάβει τη διαφορά μεταξύ πολιτικής ορθότητας και ιστορικής ακρίβειας.

Αν κάνουν καλά τη δουλειά τους, οι μελλοντικοί Δίδυμοι θα μας προσφέρουν μια τέλεια εικόνα των ολόλευκων ιδρυτών πατέρων με αυτή την κρίσιμη υποσημείωση για το πού στάθηκαν στην υποδούλωση άλλων ανθρώπων.


//platform.twitter.com/widgets.js


VIA:

TechRadar.com/


Follow TechWar.gr on Google News