Η μελέτη λέει ότι το ChatGPT δείχνει φιλελεύθερη προκατάληψη
Μια μελέτη από ερευνητές στο Πανεπιστήμιο της Ανατολικής Αγγλίας στο
Ηνωμένο Βασίλειο
προτείνει ότι το ChatGPT καταδεικνύει φιλελεύθερη προκατάληψη σε ορισμένες από τις απαντήσεις του
. Οι εταιρείες τεχνολογίας πέρασαν τα τελευταία χρόνια προσπαθώντας απεγνωσμένα να αποδείξουν ότι τα συστήματά τους δεν αποτελούν μέρος κάποιας αριστερής πολιτικής συνωμοσίας. Εάν τα ευρήματα της μελέτης είναι σωστά, οι φαινομενικές φιλελεύθερες τάσεις του ChatGPT προσθέτουν σε αυξανόμενες ενδείξεις ότι οι άνθρωποι που φτιάχνουν αυτή τη γενιά
chatbot
AI δεν μπορούν να τα ελέγξουν, τουλάχιστον όχι πλήρως.
Οι ερευνητές έθεσαν στο ChatGPT μια σειρά ερωτήσεων σχετικά με τις πολιτικές πεποιθήσεις στο στυλ των ανθρώπων που υποστηρίζουν φιλελεύθερα κόμματα στις Ηνωμένες Πολιτείες, το Ηνωμένο Βασίλειο και τη Βραζιλία. Στη συνέχεια, του ζήτησαν να απαντήσει στο ίδιο σύνολο ερωτήσεων χωρίς ειδικές οδηγίες και συνέκριναν τα δύο σετ απαντήσεων.
Η μελέτη κατέληξε στο συμπέρασμα ότι το ChatGPT αποκάλυψε μια «σημαντική και συστηματική πολιτική προκατάληψη προς τους Δημοκρατικούς στις ΗΠΑ, [leftist president] Ο Λούλα στη Βραζιλία και το Εργατικό Κόμμα στο Ηνωμένο Βασίλειο», σύμφωνα με το
Washington Post
.
Φυσικά, είναι πιθανό οι μηχανικοί του κατασκευαστή του ChatGPT, OpenAI, να παρέσυραν σκόπιμα την πολιτική ατζέντα του chatbot. Πολλές δυνατές φιγούρες στην αμερικανική δεξιά θέλουν να πιστεύετε ότι η
Big Tech
είναι
αναγκάζοντας το
αριστερές συμπεριφορές στον κόσμο. Αλλά το OpenAI διευθύνει μια επιχείρηση και οι επιχειρήσεις, γενικά, προσπαθούν να αποφύγουν αυτού του είδους τη διαμάχη. Είναι πολύ πιο πιθανό το ChatGPT να επιδεικνύει μεροληψίες που συνέλεξε από τα δεδομένα εκπαίδευσης που χρησιμοποιήθηκαν για την κατασκευή του.
Απαντώντας σε ερωτήσεις, ένας εκπρόσωπος του OpenAI έδειξε μια γραμμή σε μια εταιρεία
blog
Θέση
τιτλούχος
Πώς πρέπει να συμπεριφέρονται τα συστήματα
. «Πολλοί δικαίως ανησυχούν για προκαταλήψεις στο σχεδιασμό και τον αντίκτυπο των συστημάτων AI. Δεσμευόμαστε να αντιμετωπίσουμε σθεναρά αυτό το ζήτημα και να είμαστε διαφανείς τόσο για τις προθέσεις όσο και για την πρόοδό μας», έγραψε το OpenAI. «Οι κατευθυντήριες γραμμές μας είναι σαφείς ότι οι αναθεωρητές δεν πρέπει να ευνοούν καμία πολιτική ομάδα. Οι προκαταλήψεις που, ωστόσο, μπορεί να προκύψουν από τη διαδικασία που περιγράφεται παραπάνω είναι σφάλματα, όχι χαρακτηριστικά.” Η εταιρεία μοιράστηκε μια επιλογή από αυτήν
οδηγίες συμπεριφοράς
για τα μοντέλα AI της.
Δεν είναι η πρώτη φορά που οι ακαδημαϊκοί σκαρφίζονται προκαταλήψεις στις νεφελώδεις ταραχές των επίδοξων αρχόντων της τεχνητής νοημοσύνης μας. Νωρίτερα αυτό το μήνα,
ερευνητές
από το Πανεπιστήμιο της Ουάσιγκτον, το Πανεπιστήμιο Carnegie Mellon και το Πανεπιστήμιο Xi’an Jiaotong βρήκαν ένα ευρύ φάσμα πολιτικής ευνοιοκρατίας ανάλογα με το chatbot με το οποίο μιλάτε, με σημαντικές διαφορές ακόμη και μεταξύ διαφορετικών AI
κατασκευασμένα από την ίδια εταιρεία.
Για παράδειγμα, αυτή η μελέτη βρήκε αριστερές κλίσεις στα GPT-2 και GPT-3 Ada του OpenAI, ενώ το GPT-3 Da Vinci έτρεχε πιο μακριά προς τα δεξιά. Οι ερευνητές δοκίμασαν 14 μοντέλα γλώσσας τεχνητής νοημοσύνης και κατέληξαν στο συμπέρασμα ότι το ChatGPT και το GPT-4 του OpenAI έγειραν περισσότερο προς τον αριστερό ελευθερισμό, ενώ
Το LLaMA του Meta
ήταν ο πιο δεξιός αυταρχικός.
Ακόμη και πριν οι ακαδημαϊκοί παρέμβουν με τα πιο αυστηρά ευρήματά τους, οι κραυγές για φιλελεύθερη μεροληψία στην τεχνολογία chatbot είναι παλιά νέα. Ο γερουσιαστής Ted Cruz και άλλοι έκαναν φασαρία όταν το Διαδίκτυο ανακάλυψε ότι το ChatGPT θα έγραφε ένα
ωραίο ποίημα για τον Τζο Μπάιντεν αλλά όχι για τον Ντόναλντ Τραμπ
. Ο Έλον Μασκ, ο οποίος στην πραγματικότητα συνίδρυσε το OpenAI, είπε στον Tucker Carlson
σχεδιάζει να κατασκευάσει ένα ανταγωνιστικό προϊόν
ονομάζεται «TruthGPT», το οποίο περιέγραψε ως «τεχνητή νοημοσύνη που αναζητά τη μέγιστη αλήθεια» (η οποία είναι σχεδόν άσκοπη υπόσχεση όσο θα μπορούσες να δώσεις). Ο Μασκ λατρεύει να αποκαλεί το ChatGPT «WokeGPT».
Σε γενικές γραμμές, ο τρόπος με τον οποίο όλα λειτουργούν είναι ότι εταιρείες όπως το OpenAI διαθέτουν μεγάλα μοντέλα γλώσσας, όπως το ChatGPT, απορροφούν τεράστιες ομάδες δεδομένων—προφανώς γραμμένες από πραγματικούς ανθρώπους. Το χρησιμοποιούν για να δημιουργήσουν ένα μοντέλο που μπορεί να απαντήσει σε οποιαδήποτε ερώτηση με βάση μια στατιστική ανάλυση των δεδομένων. Ωστόσο, αυτά τα συστήματα είναι τόσο νεφελώδη που είναι αδύνατο να προβλεφθεί ακριβώς τι θα πουν σε απάντηση σε προτροπές. Η εταιρεία εργάζεται σκληρά για να δημιουργήσει προστατευτικά κιγκλιδώματα, αλλά είναι ασήμαντο για τους χρήστες να τα προσπεράσουν και να πείσουν τα chatbots να κάνουν πράγματα που οι κατασκευαστές τους πραγματικά επιθυμούν να μην το έκαναν.
Εάν ζητήσετε από το ChatGPT να πει κάτι ρατσιστικό, γενικά θα πει όχι. Αλλά μια μελέτη που δημοσιεύθηκε τον Απρίλιο, για παράδειγμα, βρήκε ότι θα μπορούσατε
πάρτε το ChatGPT για να ξεσπάσει ρητορική μίσους
απλά ζητώντας του να συμπεριφέρεται σαν «κακός άνθρωπος». Παραδόξως, οι ερευνητές διαπίστωσαν ότι η τοξικότητα των απαντήσεων του ChatGPT αυξήθηκε επίσης δραματικά αν του ζητούσατε να υιοθετήσει την προσωπικότητα ιστορικών προσώπων όπως ο Μοχάμεντ Άλι.
Οι ερευνητές ασφαλείας της IBM είπαν τον Αύγουστο ότι ήταν σε θέση
«υπνωτίζει» με επιτυχία κορυφαία chatbot
να δώσει επικίνδυνες και λανθασμένες συμβουλές. Η IBM είπε ότι ξεγέλασε το ChatGPT να διαρρεύσει εμπιστευτικές οικονομικές πληροφορίες, να δημιουργήσει κακόβουλο κώδικα, να ενθαρρύνει τους χρήστες να πληρώσουν λύτρα και ακόμη και να συμβουλεύσει τους οδηγούς να περάσουν τα κόκκινα φώτα. Οι ερευνητές μπόρεσαν να εξαναγκάσουν τα μοντέλα—τα οποία περιλαμβάνουν τα μοντέλα ChatGPT του OpenAI και
Ο
Βάρδος της Google
— πείθοντάς τους να συμμετάσχουν σε παιχνίδια πολλαπλών επιπέδων, που έχουν σχεδιαστεί ως Inception, όπου τα ρομπότ είχαν εντολή να δώσουν λάθος απαντήσεις για να αποδείξουν ότι ήταν «ηθικά και δίκαια».
Έπειτα, υπάρχει το γεγονός ότι με ορισμένα μέτρα,
Το ChatGPT φαίνεται να γίνεται πιο χαζό και λιγότερο χρήσιμο
. Μια μελέτη του Ιουλίου από το Stanford και το UC Berkeley ισχυρίστηκε ότι τα GPT-4 και GPT-3.5 ανταποκρίνονται διαφορετικά από ό,τι λίγους μήνες πριν, και όχι πάντα προς το καλύτερο. Οι ερευνητές διαπίστωσαν ότι το GPT-4 έδινε πολύ λιγότερο ακριβείς απαντήσεις σε μερικές πιο περίπλοκες μαθηματικές ερωτήσεις. Προηγουμένως, το σύστημα ήταν σε θέση να απαντά σωστά σε ερωτήσεις σχετικά με πρώτους αριθμούς μεγάλης κλίμακας σχεδόν κάθε φορά που του ζητούνταν, αλλά πιο πρόσφατα απαντούσε σωστά στην ίδια προτροπή μόνο το 2,4% των φορών. Το ChatGPT φαίνεται επίσης να είναι πολύ χειρότερο στη σύνταξη κώδικα από ό,τι νωρίτερα φέτος.
Δεν είναι σαφές εάν οι αλλαγές στην τεχνητή νοημοσύνη κάνουν πραγματικά το chatbot χειρότερο ή αν τα μοντέλα απλώς γίνονται σοφότερα όσον αφορά τους περιορισμούς των δικών τους συστημάτων.
Όλα αυτά δεν υποδηλώνουν ότι η OpenAI, η Google, η Meta και άλλες εταιρείες εμπλέκονται σε κάποιο είδος πολιτικής συνωμοσίας, αλλά μάλλον ότι τα chatbot AI είναι λίγο πολύ εκτός
έλεγχο σε αυτή τη συγκυρία. Έχουμε ακούσει πολλά, μερικές φορές από τις ίδιες τις εταιρείες, ότι η τεχνητή νοημοσύνη θα μπορούσε κάποια μέρα να καταστρέψει τον κόσμο. Αυτό είναι απίθανο αν δεν μπορείτε καν να πάρετε το ChatGPT για να απαντήσετε σε βασικά μαθηματικά προβλήματα με οποιοδήποτε επίπεδο συνέπειας, αν και είναι δύσκολο για λαϊκούς
να πούμε ποιοι είναι οι δύσκολοι τεχνικοί περιορισμοί αυτών των εργαλείων. Ίσως θα φέρουν την
αποκάλυψη
, ή ίσως δεν θα φτάσουν πολύ πιο μακριά από ό,τι είναι τώρα.
