Κυριακή, 1 Οκτωβρίου, 2023

Η απάντηση στα μεγαλύτερα ερωτήματα της τεχνητής νοημοσύνης απαιτεί μια διεπιστημονική προσέγγιση

Όταν ο ανακοίνωσε την ομάδα πίσω από τη νέα του εταιρεία τεχνητής νοημοσύνης xAI Τον περασμένο μήνα, η αποστολή του οποίου φέρεται να είναι «να κατανοήσει την αληθινή φύση του σύμπαντος», υπογράμμισε την κρισιμότητα της απάντησης σε υπαρξιακές ανησυχίες σχετικά με την υπόσχεση και τον κίνδυνο της τεχνητής νοημοσύνης.

Είτε η νεοσυσταθείσα εταιρεία μπορεί πραγματικά να ευθυγραμμίσει τη συμπεριφορά της για να μειώσει τους πιθανούς κινδύνους της τεχνολογίας ή αν στοχεύει αποκλειστικά να κερδίσει ένα πλεονέκτημα έναντι του , η ίδρυσή της θέτει σημαντικά ερωτήματα σχετικά με το πώς οι εταιρείες πρέπει να ανταποκρίνονται πραγματικά στις ανησυχίες σχετικά με την τεχνητή νοημοσύνη. ΕΙΔΙΚΑ:

  1. Ποιος εσωτερικά, ειδικά στις μεγαλύτερες εταιρείες βασικών μοντέλων, θέτει στην πραγματικότητα ερωτήσεις σχετικά με τις βραχυπρόθεσμες και μακροπρόθεσμες επιπτώσεις της τεχνολογίας που κατασκευάζουν;
  2. Έρχονται στα θέματα με κατάλληλο φακό και τεχνογνωσία;
  3. Εξισορροπούν επαρκώς τις τεχνολογικές εκτιμήσεις με κοινωνικά, ηθικά και επιστημολογικά ζητήματα;

Στο κολέγιο, έκανα ειδικότητα στην επιστήμη των υπολογιστών και στη φιλοσοφία, που φαινόταν σαν ένας αταίριαστος συνδυασμός εκείνη την εποχή. Σε μια τάξη, ήμουν περιτριγυρισμένος από ανθρώπους που σκέφτονταν βαθιά την ηθική («Τι είναι σωστό, τι είναι λάθος;»), την οντολογία («Τι υπάρχει, αλήθεια;») και την επιστημολογία («Τι πραγματικά γνωρίζουμε;»). Σε ένα άλλο, ήμουν γύρω μου από ανθρώπους που έκαναν αλγόριθμους, κώδικα και μαθηματικά.

Είκοσι χρόνια αργότερα, σε ένα χτύπημα τύχης για την προνοητικότητα, ο συνδυασμός δεν είναι τόσο αναρμονικός στο πλαίσιο του τρόπου με τον οποίο οι εταιρείες πρέπει να σκέφτονται για την τεχνητή νοημοσύνη. Τα διακυβεύματα του αντίκτυπου της τεχνητής νοημοσύνης είναι υπαρξιακά και οι εταιρείες πρέπει να αναλάβουν μια αυθεντική δέσμευση αντάξια αυτών των διακυβεύσεων.

Η ηθική τεχνητή νοημοσύνη απαιτεί βαθιά κατανόηση του τι υπάρχει, τι θέλουμε, τι πιστεύουμε ότι γνωρίζουμε και πώς ξεδιπλώνεται η νοημοσύνη.

Αυτό σημαίνει ότι στελεχώνουν τις ηγετικές τους ομάδες με ενδιαφερόμενους φορείς που είναι επαρκώς εξοπλισμένοι για να επιλύσουν τις συνέπειες της τεχνολογίας που χτίζουν — κάτι που ξεπερνά τη φυσική τεχνογνωσία των μηχανικών που γράφουν κώδικα και σκληραίνουν τα API.

Η τεχνητή νοημοσύνη δεν είναι μια πρόκληση αποκλειστικά επιστήμης υπολογιστών, πρόκληση νευροεπιστήμης ή πρόκληση βελτιστοποίησης. Είναι μια ανθρώπινη πρόκληση. Για να το αντιμετωπίσουμε, πρέπει να υιοθετήσουμε μια διαρκή εκδοχή μιας «σύσκεψης τεχνητής νοημοσύνης των μυαλών», που ισοδυναμεί με Η διεπιστημονική συγκέντρωση του Οπενχάιμερ στην έρημο του Νέου Μεξικού (όπου γεννήθηκα) στις αρχές της δεκαετίας του 1940.

Η σύγκρουση της ανθρώπινης επιθυμίας με τις ακούσιες συνέπειες της τεχνητής νοημοσύνης έχει ως αποτέλεσμα αυτό που οι ερευνητές ονομάζουν «πρόβλημα ευθυγράμμισης», που περιγράφεται με ειδικότητα στο Μπράιαν Κρίστιαντου βιβλίου «The Alignment Problem». Ουσιαστικά, οι μηχανές έχουν έναν τρόπο να παρερμηνεύουν τις πιο ολοκληρωμένες οδηγίες μας και εμείς, ως υποτιθέμενοι κύριοι τους, έχουμε κακή εμπειρία στο να τους κάνουμε να κατανοήσουν πλήρως τι πιστεύουμε ότι θέλουμε να κάνουν.

Το καθαρό αποτέλεσμα: Οι αλγόριθμοι μπορούν να προωθήσουν την προκατάληψη και την παραπληροφόρηση και ως εκ τούτου να διαβρώσουν τον ιστό της κοινωνίας μας. Σε ένα πιο μακροπρόθεσμο, πιο δυστοπικό σενάριο, μπορούν να λάβουν το “προδοτική στροφή» και οι αλγόριθμοι στους οποίους έχουμε παραχωρήσει υπερβολικό έλεγχο στη λειτουργία του πολιτισμού μας μας ξεπερνούν όλους.

Σε αντίθεση με την πρόκληση του , η οποία ήταν επιστημονική, η ηθική τεχνητή νοημοσύνη απαιτεί βαθιά κατανόηση του τι υπάρχει, τι θέλουμε, τι πιστεύουμε ότι γνωρίζουμε και πώς ξεδιπλώνεται η νοημοσύνη. Πρόκειται για ένα εγχείρημα που είναι σίγουρα αναλυτικό, αν και όχι αυστηρά επιστημονικό. Απαιτεί μια ολοκληρωμένη προσέγγιση ριζωμένη στην κριτική σκέψη τόσο από τις ανθρωπιστικές όσο και από τις επιστήμες.

Οι στοχαστές από διαφορετικούς τομείς πρέπει να συνεργαστούν στενά, τώρα περισσότερο από ποτέ. Η ονειρική ομάδα για μια εταιρεία που επιδιώκει να το κάνει αυτό πραγματικά σωστά θα μοιάζει κάπως έτσι:

  • Επικεφαλής τεχνητής νοημοσύνης και ηθικής δεδομένων: Αυτό το άτομο θα αντιμετωπίζει βραχυπρόθεσμα και μακροπρόθεσμα ζητήματα με δεδομένα και τεχνητή νοημοσύνη, συμπεριλαμβανομένων, ενδεικτικά, της άρθρωσης και υιοθέτησης αρχών ηθικών δεδομένων, της ανάπτυξης αρχιτεκτονικών αναφοράς για ηθική χρήση δεδομένων, των δικαιωμάτων των πολιτών σχετικά με τον τρόπο κατανάλωσης των δεδομένων τους και χρησιμοποιείται από την τεχνητή νοημοσύνη και πρωτόκολλα για τη διαμόρφωση και τον επαρκή έλεγχο της συμπεριφοράς της τεχνητής νοημοσύνης. Αυτό θα πρέπει να είναι ξεχωριστό από τον επικεφαλής τεχνολογίας, ο ρόλος του οποίου είναι σε μεγάλο βαθμό να εκτελέσει ένα σχέδιο τεχνολογίας αντί να αντιμετωπίσει τις επιπτώσεις του. Είναι ένας ανώτερος ρόλος στο προσωπικό του Διευθύνοντος Συμβούλου που γεφυρώνει το επικοινωνιακό χάσμα μεταξύ των εσωτερικών υπευθύνων λήψης αποφάσεων και των ρυθμιστικών αρχών. Δεν μπορείτε να διαχωρίσετε έναν υπεύθυνο ηθικής δεδομένων από έναν επικεφαλής ηθικολόγο της τεχνητής νοημοσύνης: Τα δεδομένα είναι η προϋπόθεση και το καύσιμο για την τεχνητή νοημοσύνη. Το ίδιο το AI γεννά νέα δεδομένα.
  • Επικεφαλής φιλόσοφος αρχιτέκτονας: Αυτός ο ρόλος θα ανταποκρινόταν στις μακροπρόθεσμες, υπαρξιακές ανησυχίες με κύρια εστίαση στο «Πρόβλημα ευθυγράμμισης»: πώς να οριστούν διασφαλίσεις, πολιτικές, πίσω πόρτες και διακόπτες για την τεχνητή νοημοσύνη ώστε να ευθυγραμμιστεί στο μέγιστο δυνατό βαθμό με τις ανθρώπινες ανάγκες και στόχους .
  • Επικεφαλής νευροεπιστήμονας: Αυτό το άτομο θα απαντούσε σε κρίσιμα ερωτήματα συναισθήματος και πώς η νοημοσύνη ξεδιπλώνεται στα μοντέλα τεχνητής νοημοσύνης, ποια μοντέλα ανθρώπινης γνώσης είναι πιο σχετικά και χρήσιμα για την ανάπτυξη της τεχνητής νοημοσύνης και τι μπορεί να μας διδάξει η τεχνητή νοημοσύνη για την ανθρώπινη γνώση.

Ουσιαστικά, για να μετατρέψουμε το αποτέλεσμα της ομάδας των ονείρων σε υπεύθυνη, αποτελεσματική τεχνολογία, χρειαζόμαστε τεχνολόγους που να μπορούν να μεταφράσουν αφηρημένες έννοιες και ερωτήσεις που τίθενται από το «The Three» σε λειτουργικό λογισμικό. Όπως συμβαίνει με όλες τις ομάδες εργασίας τεχνολογίας, αυτό εξαρτάται από τον ηγέτη/σχεδιαστή προϊόντος που βλέπει την όλη εικόνα.

Ένας νέος ηγέτης εφευρετικών προϊόντων στην «Εποχή της Τεχνητής Νοημοσύνης» πρέπει να κινηθεί άνετα σε νέα επίπεδα της στοίβας τεχνολογίας που περιλαμβάνει υποδομή μοντέλων για τεχνητή νοημοσύνη, καθώς και νέες υπηρεσίες για πράγματα όπως η τελειοποίηση και η ανάπτυξη ιδιόκτητων μοντέλων. Πρέπει να είναι αρκετά εφευρετικοί για να φανταστούν και να σχεδιάσουν ροές εργασίας «Human in the Loop» για να εφαρμόσουν προστατευτικά μέτρα, πίσω πόρτες και διακόπτες εξόδου, όπως ορίζει ο επικεφαλής φιλόσοφος αρχιτέκτονας. Πρέπει να έχουν την ικανότητα ενός αναγεννησιακού μηχανικού να μεταφράζει τις πολιτικές και τα πρωτόκολλα του επικεφαλής της τεχνητής νοημοσύνης και της ηθικής δεδομένων σε συστήματα εργασίας. Πρέπει να εκτιμήσουν τις προσπάθειες του επικεφαλής νευροεπιστήμονα να κινηθεί μεταξύ μηχανών και μυαλών και να διακρίνει επαρκώς ευρήματα με τη δυνατότητα να δημιουργήσουν πιο έξυπνη, πιο υπεύθυνη τεχνητή νοημοσύνη.

Ας δούμε το OpenAI ως ένα πρώιμο παράδειγμα μιας καλά ανεπτυγμένης, εξαιρετικά επιδραστικής, θεμελιώδους εταιρείας μοντέλου που παλεύει με αυτήν την πρόκληση προσωπικού: Έχουν επικεφαλής επιστήμονας (ο οποίος είναι και ο συνιδρυτής τους), α επικεφαλής της παγκόσμιας πολιτικήςκαι ένα γενικός σύμβουλος.

Ωστόσο, χωρίς τις τρεις θέσεις που περιγράφω παραπάνω σε ηγετικές θέσεις στελεχών, τα μεγαλύτερα ερωτήματα σχετικά με τις επιπτώσεις της τεχνολογίας τους παραμένουν ανεπίλυτα. Αν είναι ο Σαμ Άλτμαν ενδιαφερόμενος σχετικά με την προσέγγιση της θεραπείας και του συντονισμού της υπερευφυΐας με έναν εκτεταμένο, στοχαστικό τρόπο, η οικοδόμηση μιας ολιστικής σύνθεσης είναι ένα καλό μέρος για να ξεκινήσετε.

Πρέπει να οικοδομήσουμε ένα πιο υπεύθυνο μέλλον όπου οι εταιρείες θα είναι έμπιστοι διαχειριστές των δεδομένων των ανθρώπων και όπου η καινοτομία που βασίζεται στην τεχνητή νοημοσύνη είναι συνώνυμη με το καλό. Στο παρελθόν, οι νομικές ομάδες έκαναν το νερό σε ζητήματα όπως το απόρρητο, αλλά οι πιο ευφυείς μεταξύ τους αναγνωρίζουν ότι δεν μπορούν να λύσουν τα προβλήματα ηθικής χρήσης δεδομένων στην εποχή της τεχνητής νοημοσύνης μόνα τους.

Το να φέρουμε ευρεία, διαφορετικές προοπτικές στο τραπέζι όπου λαμβάνονται οι αποφάσεις είναι ο μόνος τρόπος για να επιτευχθούν δεδομένα ηθικής και τεχνητής νοημοσύνης στην υπηρεσία της ανθρώπινης άνθησης — διατηρώντας παράλληλα τα μηχανήματα στη θέση τους.



techcrunch.com

ΑΦΗΣΤΕ ΜΙΑ ΑΠΑΝΤΗΣΗ

εισάγετε το σχόλιό σας!
παρακαλώ εισάγετε το όνομά σας εδώ

Stay Connected

4,234ΥποστηρικτέςΚάντε Like
34ΑκόλουθοιΑκολουθήστε
3,542ΑκόλουθοιΑκολουθήστε
432ΑκόλουθοιΑκολουθήστε
321ΑκόλουθοιΑκολουθήστε
251ΣυνδρομητέςΓίνετε συνδρομητής

ΠΡΟΣΦΑΤΑ ΑΡΘΡΑ