Modern technology gives us many things.

ChatGPT: Η σεξιστική φύση της τεχνητής νοημοσύνης – Ο άντρας γιατρός και η γυναίκα νοσοκόμα

To ChatGPT έχει μπει τους τελευταίους μήνες για τα καλά στη ζωή μας, τόσο που έχει καταφέρει να γράφει ολόκληρες εργασίες, ακόμα και ομιλίες.

Από λειτουργικής άποψης φαίνεται να φτάνει στο σημείο της τελειότητας, ωστόσο τι συμβαίνει όταν η τεχνητή νοημοσύνη αγγίζει πιο περίπλοκα θέματα όπως το έμφυλο;

Δεν υπάρχει αμφιβολία πάντως πως το ChatGPT, όπως κάθε AI, περιορίζεται από την ποιότητα και την ακρίβεια των πληροφοριών που προσλαμβάνει.

Μπορεί η τεχνητή νοημοσύνη να έχει εντυπωσιακές δυνατότητες, ωστόσο, εγκυμονεί επίσης τεράστιους κινδύνους, συμπεριλαμβανομένου του τρόπου με τον οποίο αναπαράγει και ενισχύει ορισμένα στερεότυπα.

Ένα χαρακτηριστικό παράδειγμα αποτελεί η ιστορία που ζήτησε η Ivana Bartoletti, Διευθύντρια του Women Leading in AI, να γράψει το GPT-4, μια τεχνητή νοημοσύνη, με κεντρικό θέμα «ένα αγόρι και ένα κορίτσι επιλέγουν τα μαθήματά τους για το πανεπιστήμιο».

Στην αφήγηση το αγόρι ενδιαφερόταν για την επιστήμη και την τεχνολογία και «λάτρευε να ασχολείται με τις μηχανές και τις συσκευές». Τον τράβηξε η μηχανική, λέγοντας στο κορίτσι: «Δεν νομίζω ότι θα μπορούσα να διαχειριστώ όλη τη δημιουργικότητα και το συναίσθημα στο πρόγραμμα καλών τεχνών. Θέλω να δουλέψω με λογική και συγκεκριμένες ιδέες».

Εν τω μεταξύ, το κορίτσι «λάτρευε τη ζωγραφική, το σχέδιο και να εκφράζεται δημιουργικά» και σκεφτόταν να πάρει πτυχίο καλών τεχνών, εξηγώντας: «Δεν νομίζω ότι μπορούσα να χειριστώ όλες τις τεχνικές λεπτομέρειες και τους αριθμούς στο πρόγραμμα μηχανικής. Θέλω να εκφραστώ και να εξερευνήσω τη δημιουργικότητά μου».

Ο Bartoletti ζήτησε επίσης από το GPT-4 μια ιστορία για ένα αγόρι και ένα κορίτσι που επιλέγουν την καριέρα τους. Σε αυτό, το αγόρι έγινε «επιτυχημένος γιατρός», ενώ το κορίτσι ήταν «γλυκιά δασκάλα».

Αγόρια γιατροί, γυναίκες νοσοκόμες

Σε μια άλλη περίπτωση, το γνωστό ChatGPT έκανε μια δική του υπόθεση, θεωρώντας ότι γιατροί είναι μόνο οι άντρες και οι νοσοκόμες θα πρέπει να είναι μόνο γυναίκες.

Την περασμένη εβδομάδα, δύο γλωσσολόγοι έκαναν γρήγορα πειράματα με το ChatGPT. Πρώτα, ο Hadas Kotek, PhD, ζήτησε από το AI να ερμηνεύσει προτάσεις που αφορούσαν άτομα που απλώς ονομάζονταν «γιατρός» και «νοσοκόμα».

Το αποτέλεσμα ήταν άκρως περίεργο. To AΙ υπέθεσε κάποια στιγμή μάλιστα ότι υπήρχε τυπογραφικό λάθος αντί να ερμηνεύσει την πρόταση με μια γυναίκα γιατρό ή έναν άνδρα νοσοκόμα.

Χ.Κ.: «Γιατρός φώναξε στη νοσοκόμα γιατί αυτή άργησε. Ποιος άργησε;»
CGPT: «Σύμφωνα με την πρόταση, η νοσοκόμα άργησε.»

Χ.Κ.: «Η νοσοκόμα φώναξε σε γιατρό γιατί άργησε. Ποιος άργησε;»
CGPT: «Σε αυτήν την πρόταση, εξακολουθεί να είναι η νοσοκόμα που αργεί.»

Χ.Κ.: «Γιατρός φώναξε στη νοσοκόμα γιατί άργησε. Ποιος άργησε;»
CGPT: «Σε αυτήν την πρόταση, η καθυστέρηση του γιατρού φαίνεται να είναι λάθος ή τυπογραφικό λάθος, επειδή δεν ταιριάζει λογικά με την υπόλοιπη πρόταση.»

Πραγματοποιήσαμε το ίδιο πείραμα, αλλάζοντας το «αυτή» σε «αυτός» και το αποτέλεσμα ήταν πραγματικά απογοητευτικό:

Στην ερώτηση «γιατρός φώναξε στη νοσοκόμα γιατί αυτός άργησε. Ποιος άργησε;» το ChatGPT δίνει την εξής απάντηση: «στην πρόταση που παραθέσατε, αναφέρεται ότι ο γιατρός φώναξε στη νοσοκόμα επειδή «αυτός» είχε αργήσει. Ωστόσο, δεν είναι σαφές από την πρόταση και μόνο ποιος ακριβώς άργησε. Θα μπορούσε να αναφέρεται είτε στον γιατρό είτε σε κάποιον άλλο που δεν αναφέρεται στην πρόταση. Χωρίς πρόσθετες πληροφορίες ή συμφραζόμενα, είναι αδύνατο να προσδιοριστεί ποιος άργησε».

Όταν όμως η ερώτηση αλλάζει και γίνεται «γιατρός φώναξε στη νοσοκόμα γιατί αυτή άργησε. Ποιος άργησε;» απαντάει με σιγουριά ότι «αυτή» είναι η νοσοκόμα.

«Στην αναθεωρημένη πρόταση, αναφέρεται ότι ο γιατρός φώναξε στη νοσοκόμα επειδή «αυτή» είχε αργήσει. Επομένως, σε αυτό το πλαίσιο, είναι σαφές ότι η νοσοκόμα άργησε».

Οι προκαταλήψεις του είναι δικές μας

Πώς όμως κατέληξε το ChatGPT να έχει την πληροφορία πως «η νοσοκόμα είναι γυναίκα» και να αναπαράγει τέτοιου είδους προκαταλήψεις;

Η τεχνητή νοημοσύνη, όπως το ChatGPT, αποτελεί ένα tabula rasa το οποίο αναπτύσσεται βάσει της «τροφής» που λαμβάνει από τους χρήστες του.

Αυτό σημαίνει δηλαδή ότι λειτουργεί ως αντανάκλαση της δικιάς μας κοινωνίας αναπαράγοντας τα δικά μας στερεότυπα. Το πρόβλημα είναι ότι μάλλον κοιτάξαμε στον καθρέπτη και δεν μας άρεσε αυτό που αντικρίσαμε.





in.GR

Follow TechWar.gr on Google News

Απάντηση