Ερευνητές έκαναν ένα τεστ IQ για την τεχνητή νοημοσύνη, ανακάλυψαν ότι είναι όλοι αρκετά ανόητοι
Έχουν γίνει πολλά
μιλήστε για AGI
τον τελευταίο καιρό—τεχνητή γενική νοημοσύνη—ο πολυπόθητος στόχος ανάπτυξης τεχνητής νοημοσύνης που κάθε εταιρεία στη Silicon Valley αγωνίζεται επί του παρόντος να επιτύχει. Το AGI αναφέρεται σε ένα υποθετικό σημείο στο μέλλον όταν οι αλγόριθμοι τεχνητής νοημοσύνης θα είναι σε θέση να κάνουν τις περισσότερες από τις εργασίες που κάνουν σήμερα οι άνθρωποι. Σύμφωνα με αυτή τη θεωρία των γεγονότων, η εμφάνιση του ΑΓΙ θα επιφέρει
θεμελιώδεις αλλαγές στην κοινωνία
—ενδεχομένως εγκαινιάζοντας έναν κόσμο «μετά την εργασία», όπου οι άνθρωποι μπορούν να κάθονται τριγύρω και να διασκεδάζουν όλη την ημέρα, ενώ τα ρομπότ κάνουν το μεγαλύτερο μέρος της άρσης βαρών. Αν πιστεύετε στους τίτλους, το OpenAI είναι πρόσφατο
ίντριγκα του παλατιού
μπορεί να έχει εν μέρει εμπνευστεί από μια σημαντική ανακάλυψη στο AGI—η
το λεγόμενο πρόγραμμα «Q».
— οι οποίες πηγές προσκείμενες στη startup ισχυρίζονται ότι ευθύνεται για τη δραματική μάχη για την εξουσία.
Όμως, σύμφωνα με πρόσφατη έρευνα από τον Yann LeCun, τον κορυφαίο επιστήμονα AI της Meta, η τεχνητή νοημοσύνη δεν πρόκειται να είναι γενικής χρήσης σύντομα. Πράγματι, σε ένα που κυκλοφόρησε πρόσφατα
χαρτί
ο LeCun υποστηρίζει ότι η τεχνητή νοημοσύνη εξακολουθεί να είναι πολύ πιο χαζή από τους ανθρώπους με τους τρόπους που έχουν μεγαλύτερη σημασία.
Αυτό το έγγραφο, το οποίο συντάχθηκε από πολλούς άλλους επιστήμονες (συμπεριλαμβανομένων ερευνητών από άλλες νεοφυείς επιχειρήσεις τεχνητής νοημοσύνης, όπως το Hugging Face και το AutoGPT), εξετάζει τον τρόπο με τον οποίο ο συλλογισμός γενικού σκοπού της τεχνητής νοημοσύνης συνδυάζεται με τον μέσο άνθρωπο. Για να το μετρήσει αυτό, η ερευνητική ομάδα συγκέντρωσε τη δική της σειρά ερωτήσεων που, όπως περιγράφει η μελέτη, θα ήταν «εννοιολογικά απλές για τους ανθρώπους, αλλά προκλητικές για τα περισσότερα προηγμένα AI». Οι ερωτήσεις δόθηκαν σε δείγμα ανθρώπων και παραδόθηκαν επίσης σε α
εξοπλισμένο με πρόσθετο
έκδοση του GPT-4, του πιο πρόσφατου μοντέλου μεγάλης γλώσσας από το OpenAI. Η νέα έρευνα, η οποία δεν έχει ακόμη αξιολογηθεί από ομοτίμους, δοκίμασε προγράμματα τεχνητής νοημοσύνης για το πώς θα απαντούσαν σε «πραγματικές ερωτήσεις που απαιτούν ένα σύνολο θεμελιωδών ικανοτήτων όπως η συλλογιστική, ο χειρισμός πολλαπλών τρόπων, η περιήγηση στον ιστό και γενικά χρησιμοποιήστε επάρκεια.”
Οι ερωτήσεις που έθεσαν οι ερευνητές απαιτούσαν από το LLM να λάβει ορισμένα βήματα για να εξακριβώσει πληροφορίες προκειμένου να απαντήσει. Για παράδειγμα, σε μια ερώτηση, ζητήθηκε από το LLM να επισκεφτεί έναν συγκεκριμένο ιστότοπο και να απαντήσει σε μια ερώτηση που αφορά πληροφορίες σε αυτόν τον ιστότοπο. Σε άλλες, το πρόγραμμα θα έπρεπε να κάνει μια γενική αναζήτηση στον ιστό για πληροφορίες που σχετίζονται με ένα άτομο σε μια φωτογραφία.
Το τελικό αποτέλεσμα; Τα LLM δεν τα πήγαν πολύ καλά.
Πράγματι, τα αποτελέσματα της έρευνας δείχνουν ότι τα μεγάλα γλωσσικά μοντέλα συνήθως ξεπερνούσαν τους ανθρώπους όταν επρόκειτο για αυτά τα πιο περίπλοκα σενάρια επίλυσης προβλημάτων του πραγματικού κόσμου. Στην έκθεση σημειώνεται:
Παρά το γεγονός ότι είναι επιτυχείς σε εργασίες που είναι δύσκολες για τους ανθρώπους, οι πιο ικανοί LLM δεν τα καταφέρνουν καλά στο GAIA. Ακόμη και εξοπλισμένο με εργαλεία, το GPT4 δεν ξεπερνά το ποσοστό επιτυχίας του 30% για τις πιο εύκολες εργασίες μας και το 0% για τις πιο δύσκολες. Εν τω μεταξύ, το μέσο ποσοστό επιτυχίας για τους ανθρώπους που απάντησαν είναι 92%.
«Υποθέτουμε ότι η έλευση της Τεχνητής Γενικής Νοημοσύνης (AGI) εξαρτάται από την ικανότητα ενός συστήματος να επιδεικνύει παρόμοια στιβαρότητα όπως ο μέσος άνθρωπος σε τέτοιες ερωτήσεις», καταλήγει η πρόσφατη μελέτη.
Ο LeCun έχει αποκλίνει από άλλους επιστήμονες της τεχνητής νοημοσύνης, ορισμένοι από τους οποίους μίλησαν με κομμένη την ανάσα για την πιθανότητα ανάπτυξης του AGI στο εγγύς μέλλον. Σε πρόσφατα tweets, ο επιστήμονας της Meta επέκρινε έντονα τις τρέχουσες τεχνολογικές ικανότητες της βιομηχανίας, υποστηρίζοντας ότι η τεχνητή νοημοσύνη δεν πλησιάζει καθόλου τις ανθρώπινες ικανότητες.
«Έχω υποστηρίξει, τουλάχιστον από το 2016, ότι τα συστήματα τεχνητής νοημοσύνης πρέπει να έχουν εσωτερικά μοντέλα του κόσμου που θα τους επιτρέπουν να προβλέπουν τις συνέπειες των πράξεών τους και, ως εκ τούτου, να τους επιτρέπουν να συλλογίζονται και να σχεδιάζουν. Τα τρέχοντα Auto-Regressive LLMs δεν έχουν αυτή την ικανότητα, ούτε κάτι κοντά σε αυτήν, και ως εκ τούτου δεν είναι καθόλου κοντά στο να φτάσουν σε ανθρώπινο επίπεδο νοημοσύνης», είπε ο LeCun.
σε πρόσφατο tweet
. «Στην πραγματικότητα, η παντελής έλλειψη κατανόησης του φυσικού κόσμου και η έλλειψη ικανοτήτων προγραμματισμού τους βάζει πολύ κάτω από τη νοημοσύνη του επιπέδου της γάτας, χωρίς να πειράζει το ανθρώπινο επίπεδο».
VIA:
gizmodo.com

