Λάβετε μια ιδέα, λέει η επιτροπή για τη γενετική τεχνητή νοημοσύνη: “αναπτύσσεται ως επιτήρηση”

Νωρίτερα σήμερα σε ένα συνέδριο του Bloomberg στο Σαν Φρανσίσκο, εμφανίστηκαν μερικά από τα μεγαλύτερα ονόματα της τεχνητής νοημοσύνης, μεταξύ των οποίων, εν συντομία, ο Sam Altman του

, ο οποίος μόλις τελείωσε τη δίμηνη παγκόσμια περιοδεία του, και τον ιδρυτή της Stability AI, Emad Mostaque. Ωστόσο, μια από τις πιο συναρπαστικές συζητήσεις έγινε αργότερα το απόγευμα, σε μια συζήτηση για την ηθική της τεχνητής νοημοσύνης.

Συμμετέχει η Meredith Whittaker, η πρόεδρος της εφαρμογής ασφαλών μηνυμάτων Signal. Η συνιδρυτής και διευθύνουσα σύμβουλος της Credo AI Navrina Singh. και ο Alex Hanna, Διευθυντής Έρευνας στο Distributed AI Research Institute, και οι τρεις είχαν ένα ενιαίο μήνυμα για το κοινό, το οποίο ήταν: μην αποσπάτε τόσο την προσοχή από την υπόσχεση και τις απειλές που σχετίζονται με το μέλλον της τεχνητής νοημοσύνης. Δεν είναι μαγικό, δεν είναι πλήρως αυτοματοποιημένο και – σύμφωνα με τον Whittaker – αυτή ακριβώς τη στιγμή, είναι παρεμβατικό πέρα ​​από οτιδήποτε καταλαβαίνουν οι περισσότεροι Αμερικανοί φαινομενικά.

Η Hannah, για παράδειγμα, επεσήμανε τους πολλούς ανθρώπους σε όλο τον κόσμο που βοηθούν στην εκπαίδευση των σημερινών μεγάλων γλωσσικών μοντέλων, υποδεικνύοντας ότι αυτά τα άτομα παρουσιάζουν σύντομη ύφεση σε ορισμένες από τις ασθένειες κάλυψης σχετικά με τη γενετική τεχνητή νοημοσύνη εν μέρει επειδή η εργασία δεν είναι γοητευτική και εν μέρει επειδή δεν ταιριάζει με την τρέχουσα αφήγηση για την τεχνητή νοημοσύνη.

Είπε η Χάνα: «Ξέρουμε από

αναφοράς

. . .ότι υπάρχει ένας στρατός εργαζομένων που κάνουν σχολιασμούς στα παρασκήνια για να κάνουν αυτό το υλικό να λειτουργήσει σε οποιοδήποτε βαθμό — εργαζόμενοι που εργάζονται με την

Mechanical Turk, άνθρωποι που εργάζονται με [the training data company Sama — in Venezuela, Kenya, the U.S., actually all over the world . . .They are actually doing the labeling, whereas Sam [Altman] και ο Εμάντ [Mostaque] και όλοι αυτοί οι άλλοι άνθρωποι που πρόκειται να πουν αυτά τα πράγματα είναι μαγικοί — όχι. Υπάρχουν άνθρωποι. . . Αυτά τα πράγματα πρέπει να φαίνονται ως αυτόνομα και έχει αυτό το καπλαμά, αλλά υπάρχει τόσο πολλή ανθρώπινη εργασία κάτω από αυτό.”

Τα σχόλια που έγιναν ξεχωριστά από τον Whittaker — ο οποίος εργαζόταν στο παρελθόν στην

, συνίδρυσε το Ινστιτούτο AI Now του NYU και ήταν σύμβουλος της Ομοσπονδιακής Επιτροπής Εμπορίου — ήταν ακόμη πιο έντονο (και επίσης επηρεάζουν με βάση την ενθουσιώδη αντίδραση του κοινού σε αυτά). Το μήνυμά της ήταν ότι, όσο μαγεμένος κι αν είναι ο κόσμος τώρα από chatbots όπως το

και το Bard, η τεχνολογία που τα στηρίζει είναι επικίνδυνη, ειδικά καθώς η δύναμη αυξάνεται περισσότερο συγκεντρωμένη από εκείνους που βρίσκονται στην κορυφή της προηγμένης πυραμίδας AI.

Ο Whittaker είπε, «Θα έλεγα ότι ίσως μερικοί από τους ανθρώπους σε αυτό το κοινό είναι χρήστες της τεχνητής νοημοσύνης, αλλά η πλειοψηφία του πληθυσμού είναι

θέμα

του AI. . .Αυτό δεν είναι θέμα ατομικής επιλογής. Οι περισσότεροι από τους τρόπους με τους οποίους η τεχνητή νοημοσύνη παρεμβάλλει τη ζωή μας κάνει προσδιορισμούς που διαμορφώνουν την πρόσβασή μας σε πόρους σε ευκαιρίες γίνονται παρασκηνιακά με τρόπους που πιθανώς δεν γνωρίζουμε καν».

Ο Whittaker έδωσε ένα παράδειγμα κάποιου που μπαίνει σε μια τράπεζα και ζητά δάνειο. Αυτό το άτομο μπορεί να αρνηθεί και «δεν έχει ιδέα ότι υπάρχει σύστημα [the] πίσω πιθανότατα τροφοδοτείται από κάποιο API της

που καθόριζε, με βάση τα αποκομμένα μέσα κοινωνικής δικτύωσης, ότι δεν ήμουν φερέγγυος. Δεν πρόκειται να μάθω ποτέ [because] δεν υπάρχει μηχανισμός για να το ξέρω αυτό». Υπάρχουν τρόποι να αλλάξει αυτό, συνέχισε, αλλά η υπέρβαση της τρέχουσας ιεραρχίας εξουσίας για να γίνει αυτό είναι σχεδόν αδύνατο, πρότεινε. «Είμαι στο τραπέζι για περίπου 15 χρόνια, 20 χρόνια. Εγώ έχω

ήταν

στο τραπέζι. Το να είσαι στο τραπέζι χωρίς δύναμη δεν είναι τίποτα».

Σίγουρα, πολλοί ανίσχυροι άνθρωποι μπορεί να συμφωνήσουν με τον Whittaker, συμπεριλαμβανομένων των νυν και πρώην υπαλλήλων του OpenAI και της Google, οι οποίοι φέρεται να υπήρξαν επιφυλακτικοί σε στιγμές της προσέγγισης των εταιρειών τους στην κυκλοφορία προϊόντων AI.

Πράγματι, η συντονιστής του Bloomberg, Sarah Friar, ρώτησε το πάνελ πώς μπορούν οι εργαζόμενοι που ανησυχούν να μιλήσουν χωρίς φόβο ότι θα χάσουν τη δουλειά τους, στην οποία ο Singh – του οποίου η startup βοηθά εταιρείες με διακυβέρνηση AI – απάντησε: «Νομίζω ότι πολλά εξαρτώνται από την ηγεσία και την εταιρεία αξίες, για να είμαι ειλικρινής. . . . Έχουμε δει πολλές περιπτώσεις τον περασμένο χρόνο να αφήνονται υπεύθυνες ομάδες τεχνητής νοημοσύνης».

Εν τω μεταξύ, υπάρχουν πολλά περισσότερα που οι καθημερινοί άνθρωποι δεν καταλαβαίνουν για το τι συμβαίνει, πρότεινε ο Whittaker, αποκαλώντας την AI «τεχνολογία επιτήρησης». Απέναντι στο πλήθος, διευκρίνισε, σημειώνοντας ότι η τεχνητή νοημοσύνη «απαιτεί επιτήρηση με τη μορφή αυτών των τεράστιων συνόλων δεδομένων που εδραιώνουν και διευρύνουν την ανάγκη για όλο και περισσότερα δεδομένα και ολοένα και πιο οικεία συλλογή. Η λύση για όλα είναι περισσότερα δεδομένα, περισσότερη γνώση που συγκεντρώνεται στα χέρια αυτών των εταιρειών. Αλλά αυτά τα συστήματα αναπτύσσονται επίσης ως συσκευές επιτήρησης. Και νομίζω ότι είναι πραγματικά σημαντικό να αναγνωρίσουμε ότι δεν έχει σημασία αν μια έξοδος από ένα σύστημα τεχνητής νοημοσύνης παράγεται μέσω κάποιας πιθανολογικής στατιστικής εκτίμησης ή εάν είναι δεδομένα από έναν πύργο κυψέλης που τριγωνοποιεί την τοποθεσία μου. Αυτά τα δεδομένα γίνονται δεδομένα για μένα. Δεν χρειάζεται να είναι σωστό. Δεν χρειάζεται να αντικατοπτρίζει ποιος είμαι ή πού βρίσκομαι. Αλλά έχει σημαντική δύναμη στη ζωή μου, και αυτή η δύναμη τίθεται στα χέρια αυτών των εταιρειών».

Πράγματι, πρόσθεσε, «το διάγραμμα Venn των ανησυχιών για την τεχνητή νοημοσύνη και των ανησυχιών για το απόρρητο είναι ένας κύκλος».

Η Whittaker έχει προφανώς τη δική της ατζέντα μέχρι ένα σημείο. Όπως είπε η ίδια στην εκδήλωση, «υπάρχει ένας κόσμος όπου η Signal και άλλες νόμιμες τεχνολογίες διατήρησης της ιδιωτικής ζωής επιμένουν» επειδή οι άνθρωποι αισθάνονται όλο και λιγότερο άνετα με αυτή τη συγκέντρωση ισχύος.

Αλλά επίσης, εάν δεν υπάρξει αρκετή ώθηση και σύντομα – καθώς η πρόοδος στην τεχνητή νοημοσύνη επιταχύνεται, επιταχύνονται και οι κοινωνικές επιπτώσεις – θα συνεχίσουμε να κατευθυνόμαστε σε έναν «γεμάτο δρόμο προς την τεχνητή νοημοσύνη», είπε, «όπου αυτή η δύναμη είναι εδραιωμένη. και πολιτογραφήθηκε υπό το πρόσχημα της ευφυΐας και παρακολουθούμαστε στο σημείο [of having] πολύ, πολύ λίγη συμμετοχή στις ατομικές και συλλογικές μας ζωές».

Αυτή η «ανησυχία είναι υπαρξιακή και είναι πολύ μεγαλύτερη από το πλαίσιο AI που δίνεται συχνά».

Βρήκαμε τη συζήτηση συναρπαστική. Αν θέλετε να δείτε ολόκληρο το θέμα, το Bloomberg το έχει δημοσιεύσει από τότε

εδώ

.


Επάνω: Πρόεδρος του Signal Meredith Whittaker


techcrunch.com



You might also like


Leave A Reply



Cancel Reply

Your email address will not be published.