Αντιμετωπίστε το ChatGPT και το AI όπως τα βιολογικά όπλα, όχι οι πυρηνικές βόμβες

Οι άνθρωποι σήμερα αναπτύσσουν ίσως την πιο ισχυρή τεχνολογία στην ιστορία μας: την τεχνητή νοημοσύνη. Οι κοινωνικές βλάβες της τεχνητής νοημοσύνης — συμπεριλαμβανομένων των διακρίσεων, των απειλών για τη δημοκρατία και της συγκέντρωσης επιρροής — είναι ήδη καλά τεκμηριωμένες. Ωστόσο, κορυφαίες εταιρείες τεχνητής νοημοσύνης βρίσκονται σε μια κούρσα εξοπλισμών για την κατασκευή ολοένα και πιο ισχυρών συστημάτων τεχνητής νοημοσύνης που θα κλιμακώσουν αυτούς τους κινδύνους με ρυθμό που δεν έχουμε δει στην ανθρώπινη ιστορία.

Καθώς οι ηγέτες μας παλεύουν με τον τρόπο περιορισμού και ελέγχου της ανάπτυξης της τεχνητής νοημοσύνης και των σχετικών κινδύνων, θα πρέπει να εξετάσουν πώς οι κανονισμοί και τα πρότυπα επέτρεψαν στην ανθρωπότητα να κεφαλαιοποιήσει τις καινοτομίες στο παρελθόν. Η ρύθμιση και η καινοτομία μπορούν να συνυπάρχουν και, ειδικά όταν διακυβεύονται ανθρώπινες ζωές, είναι επιτακτική ανάγκη να συνυπάρχουν.

Η πυρηνική τεχνολογία παρέχει μια προειδοποιητική ιστορία. Αν και η πυρηνική ενέργεια είναι


περισσότερο από 600 φορές πιο ασφαλές από το πετρέλαιο όσον αφορά την ανθρώπινη θνησιμότητα


και ικανή για τεράστια απόδοση, λίγες χώρες θα το αγγίξουν επειδή το κοινό συνάντησε πρώτα το λάθος μέλος της οικογένειας.

Εισαγάγαμε την πυρηνική τεχνολογία με τη μορφή του ατόμου και των βομβών υδρογόνου. Αυτά τα όπλα, αντιπροσωπεύοντας την πρώτη φορά στην ανθρώπινη ιστορία που ο άνθρωπος είχε αναπτύξει μια τεχνολογία ικανή να βάλει τέλος στον ανθρώπινο πολιτισμό, ήταν το προϊόν μιας κούρσας εξοπλισμών με προτεραιότητα την ταχύτητα και την καινοτομία έναντι της ασφάλειας και του ελέγχου. Οι επακόλουθες αποτυχίες επαρκούς μηχανικής ασφάλειας και διαχείρισης κινδύνων – που οδήγησαν περίφημα στις πυρηνικές καταστροφές στο Τσερνόμπιλ και τη Φουκουσίμα – κατέστρεψαν κάθε ευκαιρία για ευρεία αποδοχή της πυρηνικής ενέργειας.

Παρά τη συνολική εκτίμηση κινδύνου της πυρηνικής ενέργειας που παραμένει εξαιρετικά ευνοϊκή και τις δεκαετίες προσπαθειών για να πειστεί ο κόσμος για τη βιωσιμότητά της, η λέξη «πυρηνική» παραμένει μολυσμένη. Όταν μια τεχνολογία προκαλεί βλάβη στις εκκολαπτόμενες φάσεις της, η κοινωνική αντίληψη και η υπερβολική ρυθμιστική αντίδραση μπορούν να περιορίσουν οριστικά το πιθανό όφελος αυτής της τεχνολογίας. Λόγω κάποιων πρώιμων σφαλμάτων με την πυρηνική ενέργεια, δεν μπορέσαμε να αξιοποιήσουμε την καθαρή, ασφαλή ισχύ της και η ουδετερότητα του άνθρακα και η ενεργειακή σταθερότητα παραμένουν ένα όνειρο.

Αλλά σε ορισμένους κλάδους, τα καταφέραμε σωστά. Η βιοτεχνολογία είναι ένας τομέας που παρακινείται να κινηθεί γρήγορα: οι ασθενείς υποφέρουν και πεθαίνουν καθημερινά από ασθένειες που στερούνται θεραπειών ή θεραπειών. Ωστόσο, το ήθος αυτής της έρευνας δεν είναι να «κινηθεί γρήγορα και να σπάσει τα πράγματα», αλλά να καινοτομήσει όσο πιο γρήγορα και με ασφάλεια γίνεται. Το όριο ταχύτητας της καινοτομίας σε αυτόν τον τομέα καθορίζεται από ένα σύστημα απαγορεύσεων, κανονισμών, δεοντολογίας και κανόνων που διασφαλίζει την ευημερία της κοινωνίας και των ατόμων. Προστατεύει επίσης τη βιομηχανία από την ανάπηρη από την αντίδραση σε μια καταστροφή.

Κατά την απαγόρευση των βιολογικών όπλων στη Σύμβαση για τα Βιολογικά Όπλα κατά τη διάρκεια του Ψυχρού Πολέμου, οι αντίπαλες υπερδυνάμεις μπόρεσαν να ενωθούν και να συμφωνήσουν ότι η δημιουργία αυτών των όπλων δεν ήταν προς το συμφέρον κανενός. Οι ηγέτες είδαν ότι αυτές οι ανεξέλεγκτες, αλλά ιδιαίτερα προσιτές, τεχνολογίες δεν πρέπει να αντιμετωπίζονται ως μηχανισμός για να κερδίσουν έναν αγώνα εξοπλισμών, αλλά ως απειλή για την ίδια την ανθρωπότητα.

Αυτή η παύση στον αγώνα βιολογικών εξοπλισμών επέτρεψε στην έρευνα να αναπτυχθεί με υπεύθυνο ρυθμό και οι επιστήμονες και οι ρυθμιστικές αρχές μπόρεσαν να εφαρμόσουν αυστηρά πρότυπα για κάθε νέα καινοτομία ικανή να προκαλέσει ανθρώπινη βλάβη. Αυτοί οι κανονισμοί δεν έγιναν εις βάρος της καινοτομίας. Αντίθετα, η επιστημονική κοινότητα έχει δημιουργήσει μια βιοοικονομία, με εφαρμογές που κυμαίνονται από την καθαρή ενέργεια μέχρι τη γεωργία. Κατά τη διάρκεια της πανδημίας COVID-19, οι βιολόγοι μετέφρασαν έναν νέο τύπο τεχνολογίας, το mRNA, σε ένα ασφαλές και αποτελεσματικό εμβόλιο με ρυθμό πρωτοφανή στην ανθρώπινη ιστορία. Όταν υπάρχουν σημαντικές βλάβες για τα άτομα και την κοινωνία, η ρύθμιση δεν εμποδίζει την πρόοδο. το επιτρέπει.

Μια πρόσφατη έρευνα ερευνητών τεχνητής νοημοσύνης αποκάλυψε ότι


Το 36 τοις εκατό πιστεύουν ότι η τεχνητή νοημοσύνη θα μπορούσε να προκαλέσει καταστροφή σε πυρηνικό επίπεδο


. Παρόλα αυτά, η κυβερνητική απάντηση και η κίνηση προς τη ρύθμιση ήταν στην καλύτερη περίπτωση υποτονική. Αυτός ο ρυθμός δεν ταιριάζει με την αύξηση της υιοθέτησης τεχνολογίας, με το ChatGPT να ξεπερνά πλέον τους 100 εκατομμύρια χρήστες.

Αυτό το τοπίο των ταχέως κλιμακούμενων κινδύνων τεχνητής νοημοσύνης οδήγησε

1800 Διευθύνοντες Σύμβουλοι και 1500 καθηγητές να υπογράψουν πρόσφατα μια επιστολή που ζητά μια εξάμηνη παύση

σχετικά με την ανάπτυξη ακόμη πιο ισχυρής τεχνητής νοημοσύνης και να ξεκινήσει επειγόντως τη διαδικασία ρύθμισης και μετριασμού του κινδύνου. Αυτή η παύση θα δώσει στην παγκόσμια κοινότητα χρόνο να μειώσει τις βλάβες που έχουν ήδη προκαλέσει η τεχνητή νοημοσύνη και να αποτρέψει δυνητικά καταστροφικές και μη αναστρέψιμες επιπτώσεις στην κοινωνία μας.

Καθώς εργαζόμαστε για την αξιολόγηση κινδύνου των πιθανών βλαβών της τεχνητής νοημοσύνης, η απώλεια θετικού δυναμικού θα πρέπει να συμπεριληφθεί στον λογισμό. Εάν λάβουμε μέτρα τώρα για να αναπτύξουμε υπεύθυνα την τεχνητή νοημοσύνη, θα μπορούσαμε να συνειδητοποιήσουμε απίστευτα οφέλη από την τεχνολογία.

Για παράδειγμα, έχουμε ήδη δει αναλαμπές της τεχνητής νοημοσύνης που μεταμορφώνει την ανακάλυψη και ανάπτυξη φαρμάκων, βελτιώνει την ποιότητα και το κόστος της υγειονομικής περίθαλψης και αυξάνει την πρόσβαση σε γιατρούς και ιατρική περίθαλψη. Το DeepMind της Google έδειξε ότι η τεχνητή νοημοσύνη είναι ικανή να λύσει θεμελιώδη προβλήματα στη βιολογία που είχαν διαφύγει εδώ και καιρό το ανθρώπινο μυαλό. Και


έρευνα έχει δείξει ότι η τεχνητή νοημοσύνη θα μπορούσε να επιταχύνει την επίτευξη κάθε ενός από τους Στόχους Βιώσιμης Ανάπτυξης του ΟΗΕ


κινώντας την ανθρωπότητα προς ένα μέλλον βελτιωμένης υγείας, ισότητας, ευημερίας και ειρήνης.

Αυτή είναι μια στιγμή για την παγκόσμια κοινότητα να συγκεντρωθεί – όπως κάναμε πριν από πενήντα χρόνια στη Σύμβαση Βιολογικών Όπλων – για να διασφαλίσουμε την ασφαλή και υπεύθυνη ανάπτυξη της τεχνητής νοημοσύνης. Εάν δεν ενεργήσουμε σύντομα, μπορεί να καταδικάζουμε ένα λαμπρό μέλλον με την τεχνητή νοημοσύνη και τη δική μας σημερινή κοινωνία μαζί με αυτό.


Θέλετε να μάθετε περισσότερα για την τεχνητή νοημοσύνη, τα chatbots και το μέλλον της μηχανικής μάθησης; Δείτε την πλήρη κάλυψή μας για



τεχνητή νοημοσύνη



ή περιηγηθείτε στους οδηγούς μας



Οι καλύτερες δωρεάν γεννήτριες τέχνης AI



και



Όλα όσα γνωρίζουμε για το ChatGPT του OpenAI



.


Η Emilia Javorsky, MD, MPH, είναι ιατρός-επιστήμονας και Διευθύντρια του Multistakeholder Engagements στο Future of Life Institute, το οποίο δημοσίευσε πρόσφατες ανοιχτές επιστολές



προειδοποιώντας ότι η τεχνητή νοημοσύνη ενέχει «κίνδυνο εξαφάνισης» για την ανθρωπότητα



και συνηγορώντας για α



εξάμηνη παύση στην ανάπτυξη AI.


gizmodo.com



You might also like


Leave A Reply



Cancel Reply

Your email address will not be published.