Σε αντίθεση με τις αναφορές, το OpenAI πιθανότατα δεν δημιουργεί AI απειλητική για την ανθρωπότητα
Έχει εφεύρει το OpenAI μια τεχνολογία AI με τη δυνατότητα να «απειλεί την ανθρωπότητα»; Από μερικούς από τους πρόσφατους τίτλους, ίσως έχετε την τάση να το πιστεύετε.
Reuters
και
Η πληροφορία
ανέφερε για πρώτη φορά την περασμένη εβδομάδα ότι πολλά μέλη του προσωπικού του OpenAI είχαν, σε επιστολή τους προς το διοικητικό συμβούλιο της startup τεχνητής νοημοσύνης, επισήμαναν την «ανδρεία» και τον «δυνητικό κίνδυνο» ενός εσωτερικού ερευνητικού έργου
που
είναι γνωστό ως «Q*». Αυτό το έργο τεχνητής νοημοσύνης, σύμφωνα με την αναφορά, θα μπορούσε να λύσει ορισμένα μαθη
ματ
ικά προβλήματα – αν και μόνο σε επίπεδο δημοτικού – αλλά κατά τη γνώμη των ερευνητών είχε μια ευκαιρία να προχωρήσει σε μια άπιαστη τεχνική ανακάλυψη.
Υπάρχει τώρα συζήτηση για το εάν το διοικητικό συμβούλιο του OpenAI έλαβε ποτέ μια τέτοια επιστολή — Το Verge αναφέρει ένα
πηγή
υποδηλώνοντας ότι δεν το έκανε. Αλλά εκτός από το καδράρισμα του Q*, το Q* στην πραγματικότητα μπορεί να μην είναι τόσο μνημειώδες – ή απειλητικό – όσο ακούγεται. Μπορεί να μην είναι καν καινούργιο.
Οι ερευνητές τεχνητής νοημοσύνης στο X (πρώην Twitter), συμπεριλαμβανομένου του Yann LeCun, του επικεφαλής επιστήμονα AI της Meta, Yann LeCun, ήταν αμέσως δύσπιστοι ότι το Q* ήταν κάτι περισσότερο από μια επέκταση της υπάρχουσας εργασίας στο OpenAI — και σε άλλα ερευνητικά εργαστήρια τεχνητής νοημοσύνης. Σε μια ανάρτηση στο X, ο Rick Lamers, ο οποίος γράφει το ενημερωτικό δελτίο Substack Coding with
Intelligence
,
αιχμηρός
σε μια προσκεκλημένη διάλεξη του MIT, ο συνιδρυτής του OpenAI, John Schulman, έδωσε πριν από επτά χρόνια, κατά τη διάρκεια της οποίας περιέγραψε μια μαθηματική συνάρτηση που ονομάζεται “Q*”.
Αρκετοί ερευνητές πιστεύουν ότι το «Q» στο όνομα «Q*» αναφέρεται στο «Q-learning», μια τεχνική τεχνητής νοημοσύνης που βοηθά ένα μοντέλο να μάθει και να βελτιώνεται σε μια συγκεκριμένη εργασία κάνοντας —και ανταμείβοντας— συγκεκριμένες «σωστές» ενέργειες. Οι ερευνητές λένε ότι ο αστερίσκος, εν τω μεταξύ, θα μπορούσε να είναι μια αναφορά στο A*, έναν αλγόριθμο για τον έλεγχο των κόμβων που συνθέτουν ένα γράφημα και την εξερεύνηση των διαδρομών μεταξύ αυτών των κόμβων.
Και οι δύο υπήρξαν εδώ και λίγο καιρό.
Το Google DeepMind εφάρμοσε το Q-learning για να δημιουργήσει έναν αλγόριθμο AI που θα μπορούσε να παίξει παιχνίδια Atari 2600 σε ανθρώπινο επίπεδο… το 2014. Το A* έχει τις ρίζες του σε μια ακαδημαϊκή εργασία που δημοσιεύθηκε το 1968. Και ερευνητές στο UC Irvine πριν από αρκετά χρόνια
εξερευνηθεί
βελτίωση του A* με το Q-learning — το οποίο μπορεί να είναι ακριβώς αυτό που επιδιώκει τώρα το OpenAI.
Ο Nathan Lambert, ερευνητής στο Ινστιτούτο Allen για την τεχνητή νοημοσύνη, είπε στο TechCrunch ότι πιστεύει ότι το Q* συνδέεται με προσεγγίσεις στην τεχνητή νοημοσύνη «κυρίως [for] μελέτη μαθηματικών προβλημάτων γυμνασίου» — όχι κατασ
τροφή
της ανθρωπότητας.
«Το OpenAI μοιράστηκε ακόμη και δουλειά νωρίτερα φέτος για τη βελτίωση της μαθηματικής συλλογιστικής των γλωσσικών μοντέλων με μια τεχνική που ονομάζεται μοντέλα ανταμοιβής διαδικασίας», είπε ο Λάμπερτ, «αλλά αυτό που μένει να φανεί είναι πώς οι καλύτερες μαθηματικές ικανότητες κάνουν οτιδήποτε άλλο εκτός από το να κάνουν [OpenAI’s AI-powered chatbot] Το ChatGPT είναι καλύτερος βοηθός κώδικα.”
Ο Mark Riedl, καθηγητής επιστήμης υπολογιστών στο Georgia Tech, ήταν επίσης επικριτικός για τις αναφορές του Reuters και του The Information σχετικά με το Q* — και την ευρύτερη αφήγηση των μέσων ενημέρωσης γύρω από το OpenAI και την προσπάθειά του προς την τεχνητή γενική νοημοσύνη (δηλ. AI που μπορεί να εκτελέσει οποιαδήποτε εργασία τόσο καλά μια ανθρώπινη κονσέρβα). Το Reuters, ε
πικα
λούμενο μια πηγή, άφησε να εννοηθεί ότι το Q* θα μπορούσε να είναι ένα βήμα προς την τεχνητή γενική νοημοσύνη (AGI). Αλλά οι ερευνητές – συμπεριλαμβανομένου του Riedl – το αμφισβητούν αυτό.
«Δεν υπάρχουν στοιχεία που να υποδηλώνουν ότι τα μεγάλα γλωσσικά μοντέλα [like ChatGPT] ή οποιαδήποτε άλλη τεχνολογία υπό ανάπτυξη στο OpenAI είναι σε μια πορεία προς το AGI ή οποιοδήποτε από τα σενάρια καταστροφής», δήλωσε ο Riedl στο TechCrunch. «Το ίδιο το OpenAI ήταν στην καλύτερη περίπτωση ένας «γρήγορος οπαδός», έχοντας υιοθετήσει υπάρχουσες ιδέες… και βρήκε τρόπους να τις αυξήσει. Ενώ το OpenAI προσλαμβάνει ερευνητές κορυφαίας ποιότητας, πολλά από αυτά που έχουν κάνει μπορούν να γίνουν από ερευνητές σε άλλους οργανισμούς. Θα μπορούσε επίσης να γίνει εάν οι ερευνητές του OpenAI βρίσκονταν σε διαφορετικό οργανισμό.
Ο Riedl, όπως και ο Lambert, δεν μάντεψε αν το Q* μπορεί να συνεπάγεται Q-learning ή A*. Αλλά αν περιλάμβανε ένα από τα δύο – ή έναν συνδυασμό των δύο – θα ήταν συνεπές με τις τρέχουσες τάσεις στην έρευνα της τεχνητής νοημοσύνης, είπε.
«Όλες αυτές είναι ιδέες που επιδιώκονται ενεργά από άλλους ερευνητές σε ολόκληρο τον ακαδημαϊκό χώρο και τη βιομηχανία, με δεκάδες εργασίες για αυτά τα θέματα τους τελευταίους έξι μήνες ή περισσότερους», πρόσθεσε ο Riedl. «Είναι απίθανο οι ερευνητές στο OpenAI να είχαν ιδέες που δεν είχαν και ο σημαντικός αριθμός ερευνητών που επιδιώκουν επίσης την πρόοδο στην τεχνητή νοημοσύνη».
Αυτό δεν σημαίνει ότι το Q* – το οποίο φέρεται να είχε τη συμμετοχή του Ilya Sutskever, επικεφαλής επιστήμονα του OpenAI – μπορεί να μην προχωρήσει τη βελόνα.
Ο Lamers ισχυρίζεται ότι, εάν το Q* χρησιμοποιεί μερικές από τις τεχνικές που περιγράφονται στο α
χαρτί
που δημοσιεύθηκε από ερευνητές του OpenAI τον Μάιο, θα μπορούσε να αυξήσει «σημαντικά» τις δυνατότητες των γλωσσικών μοντέλων. Με βάση το έγγραφο, το OpenAI μπορεί να είχε ανακαλύψει έναν τρόπο να ελέγχει τις «αλυσίδες συλλογισμού» των γλωσσικών μοντέλων, λέει ο Lamers — δίνοντάς τους τη δυνατότητα να καθοδηγούν τα μοντέλα να ακολουθούν πιο επιθυμητά και λογικά ορθά «μονοπάτια» για να φτάσουν σε αποτελέσματα.
«Αυτό θα καθιστούσε λιγότερο πιθανό τα μοντέλα να ακολουθούν «ξένη προς ανθρώπινη σκέψη» και ψεύτικα μοτίβα για να καταλήξουν σε κακόβουλα ή λανθασμένα συμπεράσματα», είπε ο Lamers. «Πιστεύω ότι αυτό είναι πραγματικά μια νίκη για το OpenAI όσον αφορά την ευθυγράμμιση… Οι περισσότεροι ερευνητές AI συμφωνούν ότι χρειαζόμαστε καλύτερους τρόπους για να εκπαιδεύσουμε αυτά τα μεγάλα μοντέλα, έτσι ώστε να μπορούν να καταναλώνουν πιο αποτελεσματικά τις πληροφορίες
Αλλά ό,τι και να προκύψει από το Q*, αυτό – και οι σχετικά απλές μαθηματικές εξισώσεις που λύνει – δεν θα είναι καταστροφή για την ανθρωπότητα.
VIA:
techcrunch.com

