Το OpenAI αποκαλύπτει την πρόκληση ετοιμότητας για τον μετριασμό των κινδύνων AI



Το

έκανε ένα τολμηρό βήμα στην

εισάγοντας την «Πρόκληση ετοιμότητας». Αυτή η νεοσυσταθείσα ομάδα είναι αφοσιωμένη στην αξιολόγηση και τον μετριασμό των πιθανών κινδύνων των προηγμένων μοντέλων τεχνητής νοημοσύνης. Με επικεφαλής τον Aleksander Madry, ειδικό τεχνητής νοημοσύνης από το MIT, αυτή η πρωτοβουλία υπόσχεται να ενισχύσει την ασφάλεια και την ασφάλεια των συστημάτων τεχνητής νοημοσύνης.

Επικεφαλής της ομάδας Preparedness Challenge είναι ο Aleksander Madry, γνωστός για το έργο του στη μηχανική μάθηση. Ο Madry υπηρετεί επίσης ως διευθυντής του Κέντρου Deployable

του MIT. Ο διορισμός του ως «επικεφαλής ετοιμότητας» στο OpenAI υπογραμμίζει τη δέσμευση του οργανισμού να αντιμετωπίσει τους κινδύνους που σχετίζονται με την τεχνητή νοημοσύνη.

Το OpenAI έχει επενδύσει ένα καλό κομμάτι χρημάτων για να αποτρέψει κινδύνους τεχνητής νοημοσύνης και αυτό το πρόγραμμα είναι ένα από τα πολλά (

Πίστωση εικόνας

)

Τι είναι η πρόκληση ετοιμότητας;

Το OpenAI συγκροτεί μια ομάδα για να αντιμετωπίσει πιθανούς κινδύνους τεχνητής νοημοσύνης που θα μπορούσαν να προχωρήσουν περισσότερο από τον τερματισμό του κόσμου, κυριολεκτικά. Η ομάδα θα καλύψει επίσης «Χημικές, βιολογικές, ραδιολογικές και πυρηνικές (ΧΒΡΠ) απειλές» και μερικά ακόμη μέτρα. Για να δημιουργήσει την ομάδα, το OpenAı αποκάλυψε την Πρόκληση Προετοιμασίας. μπορείτε τώρα να το εισάγετε.

Η αποστολή της ομάδας ετοιμότητας είναι πολύπλευρη. Είναι επιφορτισμένοι με την παρακολούθηση και την πρόβλεψη πιθανών κινδύνων που θέτουν τα μελλοντικά συστήματα τεχνητής νοημοσύνης. Αυτοί οι κίνδυνοι περιλαμβάνουν την ικανότητα των μοντέλων τεχνητής νοημοσύνης να χειραγωγούν και να εξαπατούν τους ανθρώπους, όπως φαίνεται στις επιθέσεις phishing, και τη δυνατότητά τους να δημιουργούν επιβλαβή κώδικα. Μερικοί από τους κινδύνους μπορεί να φαίνονται απίθανοι, αλλά το OpenAI λαμβάνει μια προληπτική στάση για να τους αντιμετωπίσει.

Σε μια πρόσφατη ανάρτηση ιστολογίου, το OpenAI τόνισε ορισμένες κατηγορίες κινδύνου στις οποίες εστιάζει η ομάδα ετοιμότητας. Συγκεκριμένα, εξετάζουν τους πιθανούς κινδύνους «χημικών, βιολογικών, ραδιολογικών και πυρηνικών απειλών» (ΧΒΡΠ) στο πλαίσιο των μοντέλων τεχνητής νοημοσύνης. Αν και αυτές μπορεί να φαίνονται μακρινές πιθανότητες, το OpenAI είναι αποφασισμένο να εξετάσει και να μετριάσει όλες τις πιθανές απειλές.


Μηχανικός Killswitch

στο OpenAI: Ένας ρόλος υπό συζήτηση

Σύμφωνα με την αποστολή του OpenAI

Το OpenAI είχε πάντα ως στόχο τη δημιουργία ασφαλούς τεχνητής γενικής νοημοσύνης (AGI). Υπογράμμισαν με συνέπεια τη σημασία της διαχείρισης των κινδύνων ασφαλείας σε όλες τις τεχνολογίες τεχνητής νοημοσύνης. Αυτό ευθυγραμμίζεται με τις δεσμεύσεις του OpenAI και άλλων μεγάλων ερευνητικών εργαστηρίων τεχνητής νοημοσύνης τον Ιούλιο, δίνοντας έμφαση στην ασφάλεια, την ασφάλεια και την εμπιστοσύνη στην τεχνητή νοημοσύνη.

Η ομάδα Preparedness, με επικεφαλής τον Aleksander Madry, είναι ζωτικής σημασίας για την υλοποίηση αυτής της αποστολής. Οι ευθύνες τους εκτείνονται από την αξιολόγηση των δυνατοτήτων των επερχόμενων μοντέλων τεχνητής νοημοσύνης έως εκείνων με επάρκεια σε επίπεδο AGI. Καλύπτουν ένα ευρύ φάσμα τομέων, συμπεριλαμβανομένης της εξατομικευμένης πειθούς, της ασφάλειας στον κυβερνοχώρο και των προκλήσεων των τομέων ΧΒΡΠ. Επιπλέον, η ομάδα αντιμετωπίζει ζητήματα που σχετίζονται με την αυτόνομη αναπαρ

και προσαρμογή (ARA), δείχνοντας την ολοκληρωμένη προσέγγισή της στον μετριασμό του κινδύνου AI.

Το OpenAI αποκαλύπτει την πρόκληση ετοιμότητας για τον μετριασμό των κινδύνων AI, Το OpenAI αποκαλύπτει την πρόκληση ετοιμότητας για τον μετριασμό των κινδύνων AI, TechWar.gr
Εδώ είναι πώς μοιάζει η σελίδα της

ς (

Πίστωση εικόνας

)

Πώς να συμμετάσχετε στο Preparedness Challenge

Απλώς πρέπει να συμπληρώσετε μια φόρμα για να συμμετάσχετε στο Preparedness Challenge και να είστε ένα από τα σημαντικά πρόσωπα για τον μετριασμό των κινδύνων της τεχνητής νοημοσύνης σχετικά με την ασφάλεια στον κυβερνοχώρο, την εξατομικευμένη πειθώ και πολλά άλλα. Δείτε πώς μπορείτε να εγγραφείτε:

  1. Παω σε

    αυτός ο σύνδεσμος

    .
  2. Συμπληρώστε τη φόρμα αίτησης.
  3. Στείλτε το στο OpenAI και περιμένετε απάντηση.

Το OpenAI έρχεται σε επαφή με την ευρύτερη κοινότητα για πληροφορίες ως μέρος της έναρξης της ομάδας Preparedness. Αναζητούν ιδέες για μελέτες κινδύνου, προσφέροντας ένα δελεαστικό κίνητρο—ένα έπαθλο 25.000$ και τη δυνατότητα για δουλειά με την ομάδα Preparedness για τις δέκα καλύτερες υποβολές. Αυτή η προσέγγιση αντανακλά την αφοσίωση του OpenAI στις συλλογικές προσπάθειες για την αντιμετώπιση των κινδύνων της τεχνητής νοημοσύνης.

Συνοπτικά, η εισαγωγή της ομάδας Preparedness από το OpenAI, με επικεφαλής τον Aleksander Madry, είναι ένα σημαντικό βήμα για τη διασφάλιση της ασφαλούς και υπεύθυνης ανάπτυξης των τεχνολογιών AI. Με την αξιολόγηση και τον μετριασμό των πιθανών κινδύνων που σχετίζονται με μελλοντικά μοντέλα τεχνητής νοημοσύνης, το OpenAI συμβάλλει ενεργά στην υπεύθυνη πρόοδο της τεχνητής νοημοσύνης. Με την υποστήριξη της κοινότητας της τεχνητής νοημοσύνης, αυτή η πρωτοβουλία υπόσχεται πολλά για τη δημιουργία ενός ασφαλούς και αξιόπιστου τοπίου τεχνητής νοημοσύνης προς όφελος όλων.


Πίστωση επιλεγμένης εικόνας:


Jonathan Kemper/Unsplash


VIA:

DataConomy.com


Leave A Reply



Cancel Reply

Your email address will not be published.