Τετάρτη, 4 Οκτωβρίου, 2023

Πώς θα μπορούσε η τεχνητή νοημοσύνη να οδηγήσει την ανθρωπότητα στην εξαφάνιση;

Απεικόνιση: Ole.CNX (Shutterstock)

Αυτή την εβδομάδα μια ομάδα γνωστών και έγκριτων ερευνητών τεχνητής νοημοσύνης υπογεγραμμένος μία δήλωση που αποτελείται από 22 λέξεις:

Ο μετριασμός του κινδύνου εξαφάνισης από την τεχνητή νοημοσύνη θα πρέπει να αποτελεί παγκόσμια προτεραιότητα μαζί με άλλους κινδύνους κοινωνικής κλίμακας, όπως οι πανδημίες και ο πυρηνικός πόλεμος.

Ως καθηγητής τεχνητής νοημοσύνης, είμαι επίσης υπέρ της μείωσης οποιουδήποτε κινδύνου και προετοιμασμένος να εργαστώ πάνω σε αυτό προσωπικά. Αλλά κάθε δήλωση που διατυπώνεται με τέτοιο τρόπο είναι βέβαιο ότι θα προκαλέσει συναγερμό, επομένως οι συντάκτες της θα πρέπει πιθανώς να είναι πιο συγκεκριμένοι και να διευκρινίσουν τις ανησυχίες τους.

Όπως ορίζεται από την Encyclopedia Britannica, η εξαφάνιση είναι «η εξαφάνιση ή η εξόντωση ενός είδους“. Έχω συναντήσει πολλούς από τους υπογράφοντες της δήλωσης, οι οποίοι είναι από τους πιο αξιόπιστους και αξιόπιστους επιστήμονες στον τομέα – και σίγουρα το εννοούν καλά. Ωστόσο, δεν μας έδωσαν κανένα απτό σενάριο για το πώς μπορεί να συμβεί ένα τέτοιο ακραίο γεγονός.

Δεν είναι η πρώτη φορά που βρισκόμαστε σε αυτή τη θέση. Στις 22 Μαρτίου φέτος, μια αναφορά υπογράφηκε από μια διαφορετική ομάδα επιχειρηματιών και ερευνητών ζήτησε παύση στην ανάπτυξη της τεχνητής νοημοσύνης για έξι μήνες. Στην αναφορά, στον ιστότοπο του Ινστιτούτου Future of Life, εξέθεσαν ως το σκεπτικό τους: «Βαθείς κίνδυνοι για την κοινωνία και την ανθρωπότητα, όπως φαίνεται από εκτεταμένη έρευνα και αναγνωρίζεται από κορυφαία εργαστήρια τεχνητής νοημοσύνης» – και συνόδευσαν το αίτημά τους με μια λίστα ρητορικές ερωτήσεις:

Πρέπει να αφήσουμε τις μηχανές να πλημμυρίσουν τα κανάλια πληροφόρησής μας με προπαγάνδα και αναλήθεια; Θα πρέπει να αυτοματοποιήσουμε όλες τις δουλειές, συμπεριλαμβανομένων των ικανοποιητικών; Πρέπει να αναπτύξουμε μη ανθρώπινα μυαλά που θα μπορούσαν τελικά να ξεπεράσουν σε αριθμό, να ξεπεράσουν, να ξεπεραστούν και να μας αντικαταστήσουν; Πρέπει να διακινδυνεύσουμε να χάσουμε τον έλεγχο του πολιτισμού μας;

Μια γενική αίσθηση συναγερμού

Είναι σίγουρα αλήθεια ότι, μαζί με πολλά οφέλη, αυτή η τεχνολογία συνοδεύεται από κινδύνους που πρέπει να λάβουμε σοβαρά υπόψη. Αλλά κανένα από τα προαναφερθέντα σενάρια δεν φαίνεται να σκιαγραφεί μια συγκεκριμένη πορεία προς την εξαφάνιση. Αυτό σημαίνει ότι έχουμε μείνει με μια γενική αίσθηση συναγερμού, χωρίς πιθανές ενέργειες που μπορούμε να κάνουμε.

Η ιστοσελίδα του Κέντρο για την ασφάλεια της τεχνητής νοημοσύνηςόπου εμφανίστηκε η πιο πρόσφατη δήλωση, περιγράφει σε ξεχωριστή ενότητα οκτώ ευρείες κατηγορίες κινδύνου. Αυτά περιλαμβάνουν τον «οπλισμό» της τεχνητής νοημοσύνης, τη χρήση της για τη χειραγώγηση του συστήματος ειδήσεων, την πιθανότητα οι άνθρωποι να μην μπορούν τελικά να αυτοκυβερνηθούν, τη διευκόλυνση καταπιεστικών καθεστώτων κ.λπ.

Εκτός από τον οπλισμό, δεν είναι σαφές πώς οι άλλοι –ακόμα απαίσιοι– κίνδυνοι θα μπορούσαν να οδηγήσουν στην εξαφάνιση του είδους μας, και το βάρος της ορθογραφίας βαρύνει αυτούς που το διεκδικούν.

Ο οπλισμός είναι μια πραγματική ανησυχία, φυσικά, αλλά το τι σημαίνει αυτό πρέπει επίσης να διευκρινιστεί. Στον ιστότοπό του, η κύρια ανησυχία του Κέντρου για την Ασφάλεια AI φαίνεται να είναι η χρήση συστημάτων τεχνητής νοημοσύνης για το σχεδιασμό χημικών όπλων. Αυτό θα πρέπει να αποτραπεί με κάθε κόστος – αλλά τα χημικά όπλα έχουν ήδη απαγορευτεί. Η εξαφάνιση είναι ένα πολύ συγκεκριμένο γεγονός που απαιτεί πολύ συγκεκριμένες εξηγήσεις.

Στις 16 Μαΐου, στην ακρόασή του στη Γερουσία των ΗΠΑ, ο Sam Altman, ο Διευθύνων Σύμβουλος της OpenAI – η οποία ανέπτυξε το ChatGPT AI chatbot – κλήθηκε δύο φορές να εξηγήσει το χειρότερο σενάριο του. Τελικά απάντησε:

Οι χειρότεροι φόβοι μου είναι ότι εμείς –το πεδίο, η τεχνολογία, η βιομηχανία– προκαλούμε σημαντική ζημιά στον κόσμο… Γι' αυτό ξεκινήσαμε την εταιρεία [to avert that future] … Νομίζω ότι αν αυτή η τεχνολογία πάει στραβά, μπορεί να πάει πολύ στραβά.

Όμως, ενώ είμαι σθεναρά υπέρ του να είμαστε όσο το δυνατόν πιο προσεκτικοί, και το λέω δημόσια τα τελευταία δέκα χρόνια, είναι σημαντικό να διατηρήσουμε την αίσθηση του μέτρου – ιδιαίτερα όταν συζητάμε την εξαφάνιση ενός είδους οκτώ δισεκατομμυρίων τα άτομα.

Η τεχνητή νοημοσύνη μπορεί να δημιουργήσει κοινωνικά προβλήματα που πρέπει πραγματικά να αποφευχθούν. Ως επιστήμονες, έχουμε καθήκον να τα κατανοήσουμε και μετά να κάνουμε ό,τι καλύτερο μπορούμε για να τα λύσουμε. Αλλά το πρώτο βήμα είναι να τα ονομάσουμε και να τα περιγράψουμε – και να είμαστε συγκεκριμένοι.

Θέλετε να μάθετε περισσότερα για την τεχνητή νοημοσύνη, τα chatbots και το μέλλον της μηχανικής μάθησης; Δείτε την πλήρη κάλυψή μας για τεχνητή νοημοσύνηή περιηγηθείτε στους οδηγούς μας Οι καλύτερες δωρεάν γεννήτριες τέχνης AI και Όλα όσα γνωρίζουμε για το ChatGPT του OpenAI.

Nello CristianiniΚαθηγητής Τεχνητής Νοημοσύνης, Πανεπιστήμιο του Μπαθ

Αυτό το άρθρο αναδημοσιεύεται από Η συζήτηση με άδεια Creative Commons. Διαβάστε το πρωτότυπο άρθρο.



gizmodo.com

ΑΦΗΣΤΕ ΜΙΑ ΑΠΑΝΤΗΣΗ

εισάγετε το σχόλιό σας!
παρακαλώ εισάγετε το όνομά σας εδώ

Stay Connected

4,234ΥποστηρικτέςΚάντε Like
34ΑκόλουθοιΑκολουθήστε
3,542ΑκόλουθοιΑκολουθήστε
432ΑκόλουθοιΑκολουθήστε
321ΑκόλουθοιΑκολουθήστε
251ΣυνδρομητέςΓίνετε συνδρομητής

ΠΡΟΣΦΑΤΑ ΑΡΘΡΑ