OpenAI, DeepMind και Anthropic για να δώσουν στο Ηνωμένο Βασίλειο έγκαιρη πρόσβαση σε βασικά μοντέλα έρευνας για την ασφάλεια της τεχνητής νοημοσύνης

Μετά την ανακοίνωση της κυβέρνησης του Ηνωμένου Βασιλείου την περασμένη εβδομάδα ότι σχεδιάζει να φιλοξενήσει μια «παγκόσμια» σύνοδο κορυφής για την ασφάλεια της τεχνητής νοημοσύνης αυτό το φθινόπωρο, ο πρωθυπουργός Rishi Sunak ξεκίνησε την Εβδομάδα Τεχνολογίας του Λονδίνου με μια άλλη είδηση ​​— λέγοντας στους συμμετέχοντες στο συνέδριο ότι το

, το

και το Anthropic έχουν δεσμευτεί. να παρέχουν «πρώιμη ή κατά προτεραιότητα πρόσβαση» στα μοντέλα τεχνητής νοημοσύνης τους για να υποστηρίξουν την έρευνα για την αξιολόγηση και την ασφάλεια.

Η Sunak είχε μια επιταχυνόμενη μετατροπή στο θέμα της ασφάλειας της τεχνητής νοημοσύνης τις τελευταίες εβδομάδες, μετά από μια σειρά παρεμβάσεων από γίγαντες της τεχνητής νοημοσύνης που προειδοποιούσαν για τους υπαρξιακούς και ακόμη και σε επίπεδο εξαφάνισης κινδύνους που μπορεί να εγκυμονεί η τεχνολογία εάν δεν ρυθμιστεί σωστά.

«Θα κάνουμε την αιχμή [AI] έρευνα ασφάλειας εδώ στο Ηνωμένο Βασίλειο», δεσμεύτηκε σήμερα ο Sunak. «Με 100 εκατομμύρια £ για την ειδική ομάδα εργασίας μας, αφιερώνουμε περισσότερη χρηματοδότηση στην ασφάλεια της τεχνητής νοημοσύνης από οποιαδήποτε άλλη κυβέρνηση.

Αυτή η ομάδα εργασίας για την ασφάλεια της τεχνητής νοημοσύνης θα επικεντρωθεί σε μοντέλα θεμελίωσης τεχνητής νοημοσύνης, τα

είπε επίσης η κυβέρνηση

.

«Δουλεύουμε με τα συνοριακά εργαστήρια —

DeepMind, OpenAI και Anthropic», πρόσθεσε ο Sunak. «Και είμαι στην ευχάριστη θέση να ανακοινώσω ότι έχουν δεσμευτεί να δώσουν έγκαιρα ή κατά προτεραιότητα πρόσβαση σε μοντέλα για σκοπούς έρευνας και ασφάλειας για να βοηθήσουν στη δημιουργία καλύτερων αξιολογήσεων και να μας βοηθήσουν να κατανοήσουμε καλύτερα τις ευκαιρίες και τους κινδύνους αυτών των συστημάτων».

Ο Πρωθυπουργός επανέλαβε επίσης την προηγούμενη ανακοίνωσή του για την επικείμενη σύνοδο κορυφής για την ασφάλεια της τεχνητής νοημοσύνης, επιδιώκοντας να παρομοιάσει την προσπάθεια με τις διασκέψεις COP Climate που στοχεύουν στην επίτευξη παγκόσμιας ανταπόκρισης για την αντιμετώπιση της κλιματικής αλλαγής.

«Ακριβώς όπως ενωνόμαστε μέσω της COP για να αντιμετωπίσουμε την κλιματική αλλαγή, έτσι και το Ηνωμένο Βασίλειο θα φιλοξενήσει την πρώτη Σύνοδο Κορυφής για την παγκόσμια ασφάλεια της τεχνητής νοημοσύνης αργότερα αυτό το έτος», είπε, προσθέτοντας: «Θέλω να κάνω το Ηνωμένο Βασίλειο όχι μόνο το πνευματικό σπίτι, αλλά και το γεωγραφικό σπίτι. , του παγκόσμιου κανονισμού για την ασφάλεια της τεχνητής νοημοσύνης.”

Η ευαγγελική ασφάλεια της τεχνητής νοημοσύνης είναι μια αξιοσημείωτη αλλαγή ταχυτήτων για την κυβέρνηση του Σουνάκ.

Μόλις τον Μάρτιο ήταν σε λειτουργία πλήρους μαζορέτας AI — λέγοντας σε μια λευκή βίβλο τότε ότι ευνοούσε «ένα

προσέγγιση υπέρ της καινοτομίας στη ρύθμιση της τεχνητής νοημοσύνης». Η προσέγγιση που παρουσιάζεται στο έγγραφο υποβάθμισε τις ανησυχίες για την ασφάλεια αποφεύγοντας την ανάγκη για ειδικούς νόμους για την τεχνητή νοημοσύνη (ή έναν ειδικό φύλακα της τεχνητής νοημοσύνης) υπέρ του καθορισμού μερικών «ευέλικτων αρχών». Η κυβέρνηση πρότεινε επίσης ότι η επίβλεψη των εφαρμογών τεχνητής νοημοσύνης θα πρέπει να διεξάγεται από υπάρχοντες ρυθμιστικούς φορείς, όπως η αντιμονοπωλιακή αρχή και η αρχή προστασίας δεδομένων.

Γρήγορα προς τα εμπρός λίγους μήνες και ο Sunank μιλά τώρα για το ότι θέλει το Ηνωμένο Βασίλειο να στεγάσει έναν παγκόσμιο επόπτη ασφαλείας AI. Ή, τουλάχιστον, ότι θέλει το Ηνωμένο Βασίλειο να κατέχει τη συνομιλία για την ασφάλεια της τεχνητής νοημοσύνης κυριαρχώντας στην έρευνα σχετικά με τον τρόπο αξιολόγησης των αποτελεσμάτων των αλγορίθμων εκμάθησης.


Οι γρήγορες εξελίξεις στη γενετική τεχνητή νοημοσύνη σε συνδυασμό με δημόσιες ανακοινώσεις από μια σειρά τεχνολογικών κολοσσών και προσωπικότητες του κλάδου της τεχνητής νοημοσύνης που προειδοποιούν ότι η τεχνολογία θα μπορούσε να ξεφύγει από τον έλεγχο φαίνεται ότι οδήγησαν σε μια γρήγορη επανεξέταση της στρατηγικής στην Ντάουνινγκ Στριτ.


Είναι επίσης αξιοσημείωτο ότι οι γίγαντες της τεχνητής νοημοσύνης λυγίζουν το αυτί του Sunak αυτοπροσώπως τις τελευταίες εβδομάδες, με συναντήσεις μεταξύ του πρωθυπουργού και των CEOs των OpenAI, DeepMind και Anthropic λίγο πριν αλλάξει η μουσική διάθεση της κυβέρνησης στο AI.

Εάν αυτή η τριάδα γιγάντων της τεχνητής νοημοσύνης τηρήσει τις δεσμεύσεις τους να παράσχουν στο Ηνωμένο Βασίλειο προηγμένη πρόσβαση στα μοντέλα τους, υπάρχει η ευκαιρία για τη χώρα να ηγηθεί της έρευνας για την ανάπτυξη αποτελεσματικών τεχνικών αξιολόγησης και ελέγχου — ακόμη και πριν από την περιστροφή οποιουδήποτε νομοθετικού καθεστώτος εποπτείας που επιβάλλει την αλγοριθμική διαφάνεια αλλού (το σχέδιο νόμου της Ευρωπαϊκής Ένωσης για την τεχνητή νοημοσύνη δεν αναμένεται να τεθεί σε ισχύ μέχρι το 2026, για παράδειγμα, αν και ο νόμος της ΕΕ για τις ψηφιακές υπηρεσίες είναι ήδη σε ισχύ και απαιτεί ήδη κάποια αλγοριθμική διαφάνεια από τους τεχνολογικούς γίγαντες).

Ταυτόχρονα, υπάρχει ο κίνδυνος το Ηνωμένο Βασίλειο να γίνει ευάλωτο στη σύλληψη της βιομηχανίας των εκκολαπτόμενων προσπαθειών για την ασφάλεια της τεχνητής νοημοσύνης. Και αν οι γίγαντες της τεχνητής νοημοσύνης κυριαρχήσουν στη συζήτηση σχετικά με την έρευνα για την ασφάλεια της τεχνητής νοημοσύνης παρέχοντας επιλεκτική πρόσβαση στα συστήματά τους, θα μπορούσαν να είναι σε θέση να διαμορφώσουν τυχόν μελλοντικούς κανόνες τεχνητής νοημοσύνης του Ηνωμένου Βασιλείου που θα ισχύουν για τις επιχειρήσεις τους.

Η στενή συμμετοχή των τεχνολογικών κολοσσών της τεχνητής νοημοσύνης σε δημόσια χρηματοδοτούμενη έρευνα για την ασφάλεια των εμπορικών τεχνολογιών τους πριν από κάθε νομικά δεσμευτικό πλαίσιο ασφάλειας τεχνητής νοημοσύνης που εφαρμόζεται σε αυτούς υποδηλώνει ότι θα έχουν τουλάχιστον το περιθώριο να πλαισιώσουν τον τρόπο με τον οποίο εξετάζεται η ασφάλεια της τεχνητής νοημοσύνης και ποια στοιχεία, θέματα και τα θέματα παίρνουν προτεραιότητα (και τα οποία, ως εκ τούτου, υποβαθμίζονται). Και επηρεάζοντας το είδος της έρευνας που συμβαίνει, καθώς μπορεί να εξαρτάται από το πόση πρόσβαση παρέχουν.

Εν τω μεταξύ, οι τεχνολόγοι της τεχνητής νοημοσύνης έχουν προειδοποιήσει εδώ και καιρό ότι οι φόβοι για τους πρωτοσέλιδους τίτλους σχετικά με τους κινδύνους που θα μπορούσαν να θέτουν τα «υπερέξυπνα» AI για τους ανθρώπους πνίγουν τη συζήτηση για τις ζημιές στον πραγματικό κόσμο που προκαλούν ήδη οι υπάρχουσες τεχνολογίες τεχνητής νοημοσύνης, συμπεριλαμβανομένης της μεροληψίας και των διακρίσεων, της κατάχρησης της ιδιωτικής ζωής, της παραβίασης πνευματικών δικαιωμάτων και των περιβαλλοντικών πόρων. εκμετάλλευση.

Έτσι, ενώ η κυβέρνηση του Ηνωμένου Βασιλείου μπορεί να θεωρήσει την εξαγορά των γιγάντων της τεχνητής νοημοσύνης ως πραξικόπημα δημοσίων σχέσεων, εάν η σύνοδος κορυφής της τεχνητής νοημοσύνης και οι ευρύτερες προσπάθειες για την ασφάλεια της τεχνητής νοημοσύνης θέλουν να παράγουν ισχυρά και αξιόπιστα αποτελέσματα, πρέπει να εξασφαλίσει τη συμμετοχή ανεξάρτητων ερευνητών, ομάδων της κοινωνίας των πολιτών και ομάδων που κινδυνεύει δυσανάλογα να βλάψει από την αυτοματοποίηση, όχι απλώς να σαλπίσει το σχέδιό της για μια συνεργασία μεταξύ «εξαιρετικών εταιρειών τεχνητής νοημοσύνης» και τοπικών ακαδημαϊκών — δεδομένου

Η ακαδημαϊκή έρευνα εξαρτάται ήδη συχνά από χρηματοδότηση από τεχνολογικούς γίγαντες

.


techcrunch.com



Μπορεί επίσης να σας αρέσει


Αφήστε ένα σχόλιο στο άρθρο…



Ακύρωση απάντησης

Η διεύθυνση email σας δεν θα δημοσιευθεί.