Οι ηγέτες του OpenAI προτείνουν διεθνή ρυθμιστικό φορέα για την τεχνητή νοημοσύνη
Related Posts
Η τεχνητή νοημοσύνη αναπτύσσεται αρκετά γρήγορα και οι κίνδυνοι που μπορεί να εγκυμονεί είναι αρκετά σαφείς ώστε η ηγεσία του OpenAI πιστεύει ότι ο κόσμος χρειάζεται έναν διεθνή ρυθμιστικό φορέα παρόμοιο με αυτόν που διέπει την πυρηνική ενέργεια — και γρήγορα. Όχι όμως πολύ γρήγορα.
Σε ανάρτηση στο blog της εταιρείας
ο ιδρυτής του OpenAI Sam Altman, ο Πρόεδρος Greg Brockman και ο επικεφαλής επιστήμονας Ilya Sutskever εξηγούν ότι ο ρυθμός της καινοτομίας στην τεχνητή νοημοσύνη είναι τόσο γρήγορος που δεν μπορούμε να περιμένουμε από τις υπάρχουσες αρχές να χαλιναγωγήσουν επαρκώς την τεχνολογία.
Αν και υπάρχει μια ορισμένη ποιότητα να χτυπούν τον εαυτό τους στην πλάτη εδώ, είναι σαφές σε κάθε αμερόληπτο παρατηρητή ότι η τεχνολογία, πιο εμφανή στον εκρηκτικά δημοφιλή συνομιλητή ChatGPT του OpenAI, αντιπροσωπεύει μια μοναδική απειλή καθώς και ένα ανεκτίμητο πλεονέκτημα.
Η ανάρτηση, συνήθως μάλλον ελαφριά σε λεπτομέρειες και δεσμεύσεις, παραδέχεται ωστόσο ότι η τεχνητή νοημοσύνη δεν πρόκειται να διαχειριστεί τον εαυτό της:
Χρειαζόμαστε κάποιο βαθμό συντονισμού μεταξύ των κορυφαίων αναπτυξιακών προσπαθειών για να διασφαλίσουμε ότι η ανάπτυξη της υπερευφυΐας θα πραγματοποιείται με τρόπο που μας επιτρέπει να διατηρήσουμε την ασφάλεια και να βοηθήσουμε την ομαλή ενσωμάτωση αυτών των συστημάτων στην κοινωνία.
Είναι πιθανό να χρειαστούμε τελικά κάτι σαν ένα [International Atomic Energy Agency] για προσπάθειες υπερκατασκοπίας· Οποιαδήποτε προσπάθεια πάνω από ένα ορισμένο όριο ικανότητας (ή πόρων όπως ο υπολογισμός) θα πρέπει να υπόκειται σε μια διεθνή αρχή που μπορεί να επιθεωρήσει συστήματα, να απαιτήσει ελέγχους, να ελέγξει τη συμμόρφωση με τα πρότυπα ασφαλείας, να θέσει περιορισμούς στους βαθμούς ανάπτυξης και στα επίπεδα ασφάλειας κ.λπ.
ο
ΔΟΑΕ
είναι το επίσημο όργανο των Ηνωμένων Εθνών για διεθνή συνεργασία σε θέματα πυρηνικής ενέργειας, αν και φυσικά όπως και άλλοι τέτοιοι οργανισμοί μπορεί να το θέλει για γροθιά. Ένα όργανο διαχείρισης τεχνητής νοημοσύνης που βασίζεται σε αυτό το μοντέλο μπορεί να μην μπορεί να έρθει και να γυρίσει το διακόπτη σε έναν κακό ηθοποιό, αλλά μπορεί να θεσπίσει και να παρακολουθήσει διεθνή πρότυπα και συμφωνίες, κάτι που είναι τουλάχιστον ένα σημείο εκκίνησης.
Η ανάρτηση του OpenAI σημειώνει ότι η παρακολούθηση της υπολογιστικής ισχύος και της χρήσης ενέργειας που αφιερώνεται στην έρευνα της τεχνητής νοημοσύνης είναι ένα από τα σχετικά λίγα αντικειμενικά μέτρα που μπορούν και πιθανότατα πρέπει να αναφέρονται και να παρακολουθούνται. Αν και μπορεί να είναι δύσκολο να πούμε ότι η τεχνητή νοημοσύνη πρέπει ή δεν πρέπει να χρησιμοποιείται για αυτό ή το άλλο, μπορεί να είναι χρήσιμο να πούμε ότι οι πόροι που αφιερώνονται σε αυτό θα πρέπει, όπως και άλλοι κλάδοι, να παρακολουθούνται και να ελέγχονται.
Ο κορυφαίος ερευνητής και κριτικός τεχνητής νοημοσύνης Timnit Gebru μόλις σήμερα είπε κάτι παρόμοιο σε ένα
συνέντευξη στον Guardian
: «Εκτός και αν υπάρχει εξωτερική πίεση να κάνουν κάτι διαφορετικό, οι εταιρείες δεν πρόκειται απλώς να αυτορυθμιστούν. Χρειαζόμαστε ρύθμιση και χρειαζόμαστε κάτι καλύτερο από ένα απλό κίνητρο κέρδους».
Το OpenAI αγκάλιασε εμφανώς το τελευταίο, προς έκπληξη πολλών που ήλπιζαν ότι θα ανταποκρινόταν στο όνομά του, αλλά τουλάχιστον ως ηγέτης της αγοράς ζητά επίσης πραγματική δράση από την πλευρά της διακυβέρνησης – πέρα από ακροάσεις όπου οι γερουσιαστές παρατάσσονται για να δώσουν επανεκλογικές ομιλίες που τελειώνουν με ερωτηματικά.
Αν και η πρόταση ισοδυναμεί με το «ίσως θα έπρεπε, να κάνουμε κάτι», είναι τουλάχιστον μια αρχή συζήτησης στον κλάδο και υποδηλώνει υποστήριξη από τη μεγαλύτερη μάρκα και πάροχο τεχνητής νοημοσύνης στον κόσμο για να κάνει αυτό το κάτι. Η δημόσια εποπτεία χρειάζεται απεγνωσμένα, αλλά «δεν ξέρουμε ακόμη πώς να σχεδιάσουμε έναν τέτοιο μηχανισμό».
Και παρόλο που οι ηγέτες της εταιρείας δηλώνουν ότι υποστηρίζουν το πάτημα των φρένων, δεν υπάρχουν σχέδια να το πράξουν ακόμα, τόσο επειδή δεν θέλουν να αφήσουν τις τεράστιες δυνατότητες «να βελτιώσουμε τις κοινωνίες μας» (για να μην αναφέρουμε τα τελικά) και γιατί υπάρχει κίνδυνος οι κακοί ηθοποιοί να έχουν το πόδι τους στο γκάζι.

