Ο πρωτοπόρος της τεχνητής νοημοσύνης Geoffrey Hinton δεν είναι πεπεισμένος ότι η καλή τεχνητή νοημοσύνη θα θριαμβεύσει έναντι της κακής τεχνητής νοημοσύνης

Ο καθηγητής του Πανεπιστημίου του Τορόντο, Τζέφρι Χίντον, που συχνά αποκαλείται «» για την πρωτοποριακή του έρευνα στα νευρωνικά δίκτυα, έγινε πρόσφατα ο ανεπίσημος φύλακας της βιομηχανίας. Σταμάτησε να εργάζεται στη Google αυτή την άνοιξη για να ασκήσει πιο ελεύθερα κριτική στον τομέα που βοήθησε να γίνει πρωτοπόρος. Είδε την πρόσφατη αύξηση των γενεσιουργών AI, όπως και ως σημάδια ανεξέλεγκτης και δυνητικά επικίνδυνης επιτάχυνσης στην ανάπτυξη. Η Google, εν τω μεταξύ, φαινόταν να εγκαταλείπει τον προηγούμενο περιορισμό της καθώς κυνηγούσε τους ανταγωνιστές με προϊόντα όπως η ίδια.

Στο συνέδριο Collision αυτής της εβδομάδας στο Τορόντο, ο Hinton επέκτεινε τις ανησυχίες του. Ενώ οι εταιρείες διαλαλούσαν την τεχνητή νοημοσύνη ως τη λύση για τα πάντα, από τη μίσθωση έως την αποστολή αγαθών, η Hinton κρούει τον κώδωνα του κινδύνου. Δεν είναι πεπεισμένος ότι η καλή τεχνητή νοημοσύνη θα βγει νικητής έναντι της κακής ποικιλίας και πιστεύει ότι η ηθική υιοθέτηση της τεχνητής νοημοσύνης μπορεί να έχει μεγάλο κόστος.


Μια απειλή για την ανθρωπότητα

Ο καθηγητής του Πανεπιστημίου του Τορόντο Τζέφρι Χίντον (αριστερά) μιλώντας στο Collision 2023.

Φωτογραφία Jon Fingas/Engadget

Ο Hinton υποστήριξε ότι η τεχνητή νοημοσύνη ήταν τόσο καλή όσο οι άνθρωποι που την έφτιαξαν και ότι η κακή τεχνολογία θα μπορούσε ακόμα να κερδίσει. «Δεν είμαι πεπεισμένος ότι μια καλή τεχνητή νοημοσύνη που προσπαθεί να σταματήσει το κακό μπορώ να έχω τον έλεγχο», εξήγησε. Μπορεί να είναι δύσκολο να σταματήσει το στρατιωτικό-βιομηχανικό συγκρότημα από το να παράγει, για παράδειγμα, λέει — οι εταιρείες και οι στρατοί μπορεί να «αγαπούν» τους πολέμους όπου τα θύματα είναι μηχανές που μπορούν εύκολα να αντικατασταθούν. Και ενώ ο Hinton πιστεύει ότι τα μεγάλα γλωσσικά μοντέλα (εκπαιδευμένη τεχνητή νοημοσύνη που παράγει κείμενο που μοιάζει με άνθρωπο, όπως ) θα μπορούσαν να οδηγήσουν σε τεράστιες αυξήσεις στην παραγωγικότητα, ανησυχεί ότι η άρχουσα τάξη μπορεί απλώς να το εκμεταλλευτεί για να εμπλουτιστεί, διευρύνοντας ένα ήδη μεγάλο χάσμα πλούτου. «Θα έκανε τους πλούσιους πλουσιότερους και τους φτωχούς φτωχότερους», είπε ο Hinton.

Ο Hinton επανέλαβε επίσης την πολυδιαφημισμένη άποψή του ότι η τεχνητή νοημοσύνη θα μπορούσε στην ανθρωπότητα. Εάν η τεχνητή νοημοσύνη γίνει πιο έξυπνη από τους ανθρώπους, δεν υπάρχει καμία εγγύηση ότι οι άνθρωποι θα παραμείνουν υπεύθυνοι. «Είμαστε σε μπελάδες» εάν η τεχνητή νοημοσύνη αποφασίσει ότι η ανάληψη του ελέγχου είναι απαραίτητη για την επίτευξη των στόχων της, είπε ο Hinton. Για αυτόν, οι απειλές δεν είναι απλώς επιστημονική φαντασία. πρέπει να ληφθούν σοβαρά υπόψη. Ανησυχεί ότι η κοινωνία θα χαλιναγωγήσει τα ρομπότ δολοφόνων μόνο αφού είχε την ευκαιρία να δει «πόσο απαίσια» ήταν.

Υπάρχουν πολλά υπάρχοντα προβλήματα, πρόσθεσε ο Hinton. Υποστηρίζει ότι παραμένουν ζητήματα, καθώς τα λοξά δεδομένα εκπαίδευσης AI μπορεί να παράγουν άδικα αποτελέσματα. Οι αλγόριθμοι δημιουργούν επίσης που ενισχύουν την παραπληροφόρηση και τα ζητήματα ψυχικής υγείας. Ο Hinton ανησυχεί επίσης για το ότι η τεχνητή νοημοσύνη διαδίδει παραπληροφόρηση πέρα ​​από αυτά τα επιμελητήρια. Δεν είναι σίγουρος αν είναι δυνατό να συλλάβει κάθε ψεύτικο ισχυρισμό, παρόλο που είναι «σημαντικό να επισημάνουμε οτιδήποτε πλαστό ως ψεύτικο».

Αυτό δεν σημαίνει ότι ο Hinton απελπίζεται για τον αντίκτυπο της τεχνητής νοημοσύνης, αν και προειδοποιεί ότι η υγιής χρήση της τεχνολογίας μπορεί να έχει υψηλό τίμημα. Οι άνθρωποι μπορεί να χρειαστεί να διεξαγάγουν «εμπειρική εργασία» για να κατανοήσουν πώς η τεχνητή νοημοσύνη θα μπορούσε να πάει στραβά και να την αποτρέψει από το να καταργήσει τον έλεγχο. Είναι ήδη «εκτός» να διορθωθούν οι προκαταλήψεις, πρόσθεσε. Ένα μεγάλο γλωσσικό μοντέλο AI μπορεί να βάλει τέλος στους θαλάμους ηχούς, αλλά ο Hinton θεωρεί ότι οι αλλαγές στις πολιτικές της εταιρείας είναι ιδιαίτερα σημαντικές.

Ο καθηγητής δεν μάσησε τα λόγια του στην απάντησή του σε ερωτήσεις σχετικά με τους ανθρώπους που χάνουν τη δουλειά τους μέσω της αυτοματοποίησης. Αισθάνεται ότι ο «σοσιαλισμός» είναι απαραίτητος για την αντιμετώπιση της ανισότητας και ότι οι άνθρωποι θα μπορούσαν να αντισταθμίσουν την ανεργία αναλαμβάνοντας επαγγέλματα που θα μπορούσαν να αλλάξουν με την εποχή, όπως τα υδραυλικά (και όχι, δεν αστειεύεται). Ουσιαστικά, η κοινωνία μπορεί να χρειαστεί να κάνει ευρείες αλλαγές για να προσαρμοστεί στην τεχνητή νοημοσύνη.

Ο κλάδος παραμένει αισιόδοξος

Ο Colin Murdoch του Google DeepMind στο Collision 2023
Google DeepMind CBO Colin Murdoch στο Collision 2023.

Φωτογραφία Jon Fingas/Engadget

Οι προηγούμενες συνομιλίες στο Collision ήταν πιο ελπιδοφόρες. Ο επικεφαλής επιχειρήσεων της Google DeepMind, Colin Murdoch, δήλωσε σε μια διαφορετική συζήτηση ότι η τεχνητή νοημοσύνη έλυνε μερικές από τις πιο δύσκολες προκλήσεις του κόσμου. Δεν υπάρχει μεγάλη αμφισβήτηση σε αυτό το μέτωπο – η DeepMind καταλογοποιεί, καταπολεμά τα ανθεκτικά στα αντιβιοτικά βακτήρια και ακόμη και επιταχύνει την εργασία σε . Οραματίστηκε την «τεχνητή γενική νοημοσύνη» που θα μπορούσε να λύσει πολλά προβλήματα και έδειξε τα προϊόντα της Google ως παράδειγμα. είναι χρήσιμο για την περιγραφή φωτογραφιών, αλλά η υποκείμενη τεχνολογία κάνει επίσης τα YouTube Shorts με δυνατότητα αναζήτησης. Ο Μέρντοχ έφτασε στο σημείο να αποκαλεί τους τελευταίους έξι έως 12 μήνες μια «στιγμή λαμπτήρα» για την τεχνητή νοημοσύνη που ξεκλείδωσε τις δυνατότητές της.

Ο επικεφαλής επιστήμονας της Roblox Morgan McGuire συμφωνεί σε μεγάλο βαθμό. Πιστεύει ότι η πλατφόρμα παιχνιδιού «έκλεισε το χάσμα» μεταξύ νέων δημιουργών και βετεράνων, καθιστώντας ευκολότερη τη σύνταξη κώδικα και τη δημιουργία υλικού εντός του παιχνιδιού. Η Roblox κυκλοφορεί ακόμη και ένα μοντέλο τεχνητής νοημοσύνης ανοιχτού κώδικα, το StarCoder, το οποίο ελπίζει ότι θα βοηθήσει άλλους κάνοντας τα μοντέλα μεγάλων γλωσσών πιο προσιτά. Ενώ ο McGuire σε μια συζήτηση αναγνώρισε τις προκλήσεις στην κλιμάκωση και τον συντονισμό του περιεχομένου, πιστεύει ότι έχει «απεριόριστες» δυνατότητες χάρη στη δημιουργική του δεξαμενή.

Τόσο ο Murdoch όσο και ο McGuire εξέφρασαν μερικές από τις ίδιες ανησυχίες με τον Hinton, αλλά ο τόνος τους ήταν σαφώς λιγότερο ανησυχητικός. Ο Murdoch τόνισε ότι η DeepMind ήθελε «ασφαλή, ηθική και χωρίς αποκλεισμούς» τεχνητή νοημοσύνη και επεσήμανε τις διαβουλεύσεις με ειδικούς και τις εκπαιδευτικές επενδύσεις ως απόδειξη. Το στέλεχος επιμένει ότι είναι ανοιχτός σε ρυθμίσεις, αλλά μόνο εφόσον επιτρέπει «καταπληκτικές ανακαλύψεις». Με τη σειρά του, ο McGuire είπε ότι η Roblox πάντα λάνσαρε εργαλεία δημιουργίας τεχνητής νοημοσύνης με εποπτεία περιεχομένου, βασιζόταν σε διαφορετικά σύνολα δεδομένων και εξασκούσε τη διαφάνεια.

Κάποιες ελπίδες για το μέλλον

Ο Morgan McGuire του Roblox στο Collision 2023
Ο επικεφαλής επιστήμονας της Roblox Morgan McGuire μιλά στο Collision 2023.

Φωτογραφία Jon Fingas/Engadget

Παρά τους τίτλους που συνοψίζουν τα πρόσφατα σχόλιά του, ο συνολικός ενθουσιασμός του Hinton για την τεχνητή νοημοσύνη δεν έχει αμβλυνθεί μετά την αποχώρησή του από την Google. Αν δεν το είχε παρατήσει, ήταν σίγουρο ότι θα εργαζόταν σε πολυτροπικά μοντέλα τεχνητής νοημοσύνης όπου η όραση, η γλώσσα και άλλα στοιχεία βοηθούν στη λήψη αποφάσεων. «Τα μικρά παιδιά δεν μαθαίνουν μόνο από τη γλώσσα», είπε, προτείνοντας ότι οι μηχανές θα μπορούσαν να κάνουν το ίδιο. Όσο και αν ανησυχεί για τους κινδύνους της τεχνητής νοημοσύνης, πιστεύει ότι θα μπορούσε τελικά να κάνει ό,τι μπορούσε ένας άνθρωπος και ήδη είχε δείξει «λίγη λογική». Το GPT-4 μπορεί να προσαρμοστεί για να λύσει πιο δύσκολους γρίφους, για παράδειγμα.

Ο Hinton αναγνωρίζει ότι η ομιλία του στο Collision δεν είπε πολλά για τις καλές χρήσεις της τεχνητής νοημοσύνης, όπως η καταπολέμηση της κλιματικής αλλαγής. Η πρόοδος της τεχνολογίας AI ήταν πιθανότατα υγιής, ακόμα κι αν ήταν ακόμα σημαντικό να ανησυχούμε για τις επιπτώσεις. Και ο Hinton παραδέχτηκε ελεύθερα ότι ο ενθουσιασμός του δεν έχει αμβλυνθεί παρά τα διαφαινόμενα ηθικά και ηθικά προβλήματα. «Μου αρέσει αυτό το πράγμα», είπε. «Πώς μπορείς να μην σου αρέσει να φτιάχνεις έξυπνα πράγματα;»


Engadget.com



You might also like


Leave A Reply



Cancel Reply

Your email address will not be published.