Είναι το ChatGPT αρκετά έξυπνο για την επίλυση προβλημάτων χωρίς λόγια;
Το τελευταίο σε μια σειρά από κερδοσκοπικές ερευνητικές εργασίες για την τεχνητή νοημοσύνη κάνει μερικούς αρκετά περίεργους ισχυρισμούς σχετικά με το πώς τα μοντέλα βαθιάς μάθησης έχουν κάποιες λεπτές, απραγματοποίητες
γνωστικές ικανότητες που συγγενεύουν ή και ξεπερνούν τους ανθρώπους. Αν και οι ερευνητές ανακάλυψαν ότι ένα σύγχρονο μοντέλο μετασχηματιστή προεκπαίδευσης λειτουργεί καλά σε πολλαπλές επιλογές
τεστ που δεν απαιτούν απαραιτήτως γλώσσα, εξακολουθούν να μην έχουν ειλικρινή ιδέα εάν η τεχνητή νοημοσύνη βασίζει τις απαντήσεις της στα αδιαφανή δεδομένα εκπαίδευσης.
Ερευνητές του Πανεπιστημίου της Καλιφόρνια στο Λος Άντζελες δοκίμασαν «αναλογικές εργασίες» στο μοντέλο μεγάλης γλώσσας GPT-3 και διαπίστωσαν ότι ήταν πάνω από τις «ανθρώπινες ικανότητες» για την επίλυση πολύπλοκων συλλογιστικών προβλημάτων. Το UCLA έκανε γρήγορα μάλλον περίεργους ισχυρισμούς σχετικά με την έρευνα στο δικό του
δελτίο τύπου
Δευτέρα, θέτοντας το ερώτημα εάν η τεχνητή νοημοσύνη «χρησιμοποιούσε ένα θεμελιωδώς νέο είδος γνωστικής διαδικασίας».
Αυτή είναι μια εγγενώς προκατειλημμένη ερώτηση που βασίζεται σε μια εντυπωσιακή άποψη των συστημάτων AI, αλλά ας δούμε λίγο βαθύτερα. Ο μεταδιδακτορικός ερευνητής ψυχολογίας του UCLA Taylor Webb και οι καθηγητές Keith Holyoak και Hongjing Lu δημοσίευσαν
χαρτί
στο περιοδικό
Φύση Ανθρώπινη Συμπεριφορά
. Συνέκριναν τις απαντήσεις της τεχνητής νοημοσύνης με τις απαντήσεις 40 προπτυχιακών φοιτητών και βρήκαν ότι το bot είχε την υψηλότερη βαθμολογία των ανθρώπων και ότι έκανε ακόμη και μερικά από τα ίδια λάθη.
Συγκεκριμένα, οι ερευνητές στήριξαν τις δοκιμές τους στο μη λεκτικό τεστ που ονομάζεται Raven’s Progressive Matrices που αναπτύχθηκε μέχρι το 1939. Είναι μια λίστα με 60 πολλαπλές επιλογές
ερωτήσεις που γίνονται πιο δύσκολες όσο προχωρούν και απαιτούν κυρίως από τους εξεταζόμενους να προσδιορίσουν ένα μοτίβο. Μερικοί έχουν προεκβάλει το Raven για να μετρήσει το IQ ως βαθμολογία για τη γενική γνωστική ικανότητα, ειδικά επειδή ορισμένοι υποστηρικτές λένε ότι δεν χωράει πολλά
εθνοτικές ή πολιτισμικές προκαταλήψεις
σε σύγκριση με άλλα, εγγενώς προκατειλημμένα τεστ νοημοσύνης
.
Ευτυχώς, το έγγραφο δεν προσπαθεί να αποδώσει α
κουκέτα
βαθμολογία IQ
στο AI. Ζήτησαν επίσης από το bot να λύσει ένα σύνολο ερωτήσεων αναλογίας SAT που αφορούσαν ζεύγη λέξεων. Ας πούμε ότι ένα λαχανικό σχετίζεται με ένα λάχανο. Επομένως, ένα έντομο είναι ισοδύναμο με ένα «κάνθαρο» και ούτω καθεξής. Οι ερευνητές ισχυρίστηκαν ότι, εξ όσων γνωρίζουν, οι ερωτήσεις δεν είχαν εμφανιστεί στο διαδίκτυο και ότι ήταν «απίθανο» να είχαν καταβροχθιστεί ως μέρος των δεδομένων εκπαίδευσης του GPT-3. Και πάλι, η τεχνητή νοημοσύνη απέδωσε σε επίπεδο ελαφρώς υψηλότερο από τη μέση τσάντα κρέατος.
Υπάρχουν πολλά προβλήματα που η τεχνητή νοημοσύνη είναι χάλια ή ίσως είναι περισσότερο παιδί STEM παρά φοιτητής ανθρωπιστικών επιστημών. Ήταν πολύ λιγότερο ικανό να λύνει προβλήματα αναλογίας με βάση μικρές ιστορίες, αν και το νεότερο, πιο εκτεταμένο GPT-4
ήταν συνολικά καλύτερος στο έργο. Ζητήθηκε να χρησιμοποιήσει ένα σωρό οικιακά αντικείμενα για να μεταφέρει τσίχλες από το ένα δωμάτιο στο άλλο και η τεχνητή νοημοσύνη βρήκε «παράξενες λύσεις».
Ο Webb και οι συνεργάτες του εργάζονται πάνω σε αυτό το πρόβλημα για σχεδόν μισό χρόνο, και από την αρχική προεκτύπωσή τους έχουν προσθέσει περισσότερες δοκιμές στο μοντέλο. Όλες αυτές οι δοκιμές τους οδήγησαν να αρχίσουν ανοιχτά να θεωρητικοποιούν για το πώς το GPT-3 θα μπορούσε να σχηματίζει κάποιο είδος «διαδικασίας χαρτογράφησης» παρόμοια με το πώς οι άνθρωποι θεωρούνται ότι αντιμετωπίζουν τέτοια προβλήματα. Οι ερευνητές πήδηξαν στην ιδέα ότι
Η τεχνητή νοημοσύνη θα μπορούσε να έχει αναπτύξει κάποιο εναλλακτικό τύπο νοημοσύνης μηχανών.
Το «χωρικό» μέρος των δοκιμών θα περιλάμβανε συχνά σχήματα και απαιτούσε από το AI να μαντέψει το σωστό σχήμα ή διάγραμμα με βάση προηγούμενα, παρόμοια σχήματα. Οι συγγραφείς της μελέτης συνέχισαν να κάνουν περαιτέρω συγκρίσεις με όσους κάνουν τεστ σάρκας και αίματος, λέγοντας ότι η τεχνητή νοημοσύνη μοιράζεται πολλά παρόμοια χαρακτηριστικά της «ανθρώπινης αναλογικής λογικής». Ουσιαστικά, οι ερευνητές είπαν ότι η τεχνητή νοημοσύνη συλλογιζόταν με τους ίδιους τρόπους που έκαναν οι άνθρωποι έχοντας μια αίσθηση της σύγκρισης των σχημάτων.
Ο Webb και οι συνάδελφοί του κυκλοφόρησαν για πρώτη φορά μια προεκτύπωση του χαρτιού
τον Δεκεμβριο. Εκεί ο ερευνητής
ισχυρίστηκε
Το GPT-3 δεν είχε «καμία εκπαίδευση» σε αυτές τις δοκιμές ή σχετικές εργασίες.
Υπάρχει ένα θεμελιώδες πρόβλημα με οποιονδήποτε προσπαθεί να ισχυριστεί ότι υπάρχει κάτι στο οποίο η τεχνητή νοημοσύνη δεν έχει εκπαιδευτεί. Είναι δυνατόν να μην υπάρχει απολύτως τίποτα που να βασίζεται στη γλώσσα στο τεστ του Raven στα 45 ολόκληρα terabyte δεδομένων εκπαίδευσης που χρησιμοποιούνται από το AI; Ίσως, αλλά ο δημιουργός του GPT-3 OpenAI δεν έχει κυκλοφορήσει μια πλήρη λίστα με το τι περιέχεται στο σύνολο δεδομένων από το οποίο έμαθε το LLM τους. Αυτό συμβαίνει για μερικούς λόγους, ο ένας είναι να κρατήσουν κλειδωμένο το αποκλειστικό AI τους για να πουλήσουν καλύτερα τις υπηρεσίες τους. Το δεύτερο είναι να
κρατήσει ακόμη περισσότερους ανθρώπους από
μηνύσεις τους για παραβίαση πνευματικών δικαιωμάτων
.
Προηγουμένως, ο Διευθύνων Σύμβουλος της Google, Sundar Pichai, ισχυρίστηκε σε μια συνέντευξη ότι κατά κάποιο τρόπο, το chatbot Bard της Google έμαθε το Μπενγκάλι από μόνο του. Το πράγμα
είναι, οι ερευνητές βρήκαν το Μπενγκάλι και
άλλες επικαλυπτόμενες γλώσσες υπήρχαν ήδη στα δεδομένα εκπαίδευσης
. Τα περισσότερα από τα δεδομένα της AI είναι
με επίκεντρο τα αγγλικά και το “
δυτικά
»,
αλλά η εκμάθηση είναι τόσο ευρεία και καλύπτει τόσο μεγάλο εύρος πληροφοριών, υπάρχει πιθανότητα κάποιο παράδειγμα επίλυσης προβλημάτων χωρίς γλώσσα
γλίστρησε εκεί μέσα.
Η ανακοίνωση του UCLA αναφέρει μάλιστα ότι οι ερευνητές δεν έχουν ιδέα πώς ή γιατί το AI κάνει κάτι από αυτά
αφού δεν έχουν πρόσβαση στη μυστική σάλτσα του OpenAI. Τι αρέσει σε αυτό το χαρτί και σε άλλα
να δημιουργήσετε ακόμη περισσότερη υστερία σχετικά με το AI που περιέχει κάποια μορφή πραγματικής «νοημοσύνης». Ο Διευθύνων Σύμβουλος του OpenAI έχει ασχοληθεί εκτενώς με τις ανησυχίες της Τεχνητής Γενικής Νοημοσύνης, ένα είδος συστήματος υπολογιστών που
πραγματικά έξυπνος
. Αλλά αυτό που σημαίνει στην πράξη είναι νεφελώδες. Ο Άλτμαν περιέγραψε το GPT-4 ως «εξωγήινη νοημοσύνη», σε συνέντευξή του
Ο Ατλαντικός
όπου περιέγραψε επίσης τη γραφή AI
κώδικα υπολογιστή που δεν ήταν ρητά προγραμματισμένος να κάνει.
Αλλά είναι επίσης ένα παιχνίδι με κέλυφος. Ο Altman δεν θα δημοσιοποιήσει ό,τι υπάρχει στα δεδομένα εκπαίδευσης του AI και επειδή είναι ένα μεγάλο μαύρο κουτί, η εταιρεία, οι υποστηρικτές της τεχνητής νοημοσύνης, ακόμη και οι καλοπροαίρετοι ερευνητές μπορούν να παρασυρθούν στη διαφημιστική εκστρατεία με τους ισχυρισμούς ότι τα μοντέλα γλώσσας απελευθερώνονται από το ψηφιακό κλουβί που περιέχει το.
Θέλετε να μάθετε περισσότερα για την τεχνητή νοημοσύνη, τα chatbots και το μέλλον της μηχανικής μάθησης; Δείτε την πλήρη κάλυψή μας για
τεχνητή νοημοσύνη
ή περιηγηθείτε στους οδηγούς μας
Οι καλύτερες δωρεάν γεννήτριες τέχνης AI
,
Οι καλύτερες εναλλακτικές λύσεις ChatGPT
,
και
Όλα όσα γνωρίζουμε για το ChatGPT του OpenAI
.


