Νεα: 18 χώρες συμφωνούν για υπεύθυνη ανάπτυξη του — InfoCom
Οι Ηνωμένες Πολιτείες, η Βρετανία και 16 άλλες χώρες υπέγραψαν αυτό που περιγράφεται ως η πρώτη ολοκληρωμένη διεθνής συμφωνία για την ασφάλεια της τεχνητής νοημοσύνης, ωθώντας τις εταιρείες να δημιουργήσουν συστήματα τεχνητής νοημοσύνης που είναι «ασφαλή από το σχεδιασμό».
Σε ένα έγγραφο 20 σελίδων που παρουσιάστηκε την Κυριακή, οι 18 χώρες συμφώνησαν ότι οι εταιρείες που σχεδιάζουν και χρησιμοποιούν
τεχνητή νοημοσύνη
πρέπει να την αναπτύξουν με τρόπο που να προστατεύει τους πελάτες τους και το ευρύτερο κοινό από κακή χρήση.
Η συμφωνία είναι μη δεσμευτική και περιλαμβάνει ως επί το πλείστον γενικές συσ
τάσεις
, όπως η παρακολούθηση συστημάτων τεχνητής νοημοσύνης για κατάχρηση, η προστασία των δεδομένων από παραβιάσεις και ο έλεγχος των προμηθευτών λογισμικού.
Ωστόσο, η διευθύντρια της Υπηρεσίας Κυβερνοασφάλειας και Ασφάλειας Υποδομών των ΗΠΑ, Jen Easterly, είπε ότι είναι σημαντικό το γεγονός ότι τόσες πολλές χώρες υποστήριξαν την ιδέα ότι τα συστήματα τεχνητής νοημοσύνης πρέπει να βάζουν πρώτα την ασφάλεια.
“Αυτή είναι η πρώτη φορά που βλέπουμε μια επιβεβαίωση ότι αυτές οι δυνατότητες δεν πρέπει να αφορούν μόνο τα όμορφα χαρακτηριστικά και το πόσο γρήγορα μπορούμε να τα φέρουμε στην αγορά ή πώς μπορούμε να ανταγωνιστούμε για να μειώσουμε το κόστος”, είπε ο Easterly, προσθέτοντας ότι οι κατευθυντήριες γραμμές υποδεικνύουν ότι “το πιο σημαντικό πράγμα που πρέπει να γίνει στη φάση του σχεδιασμού είναι η ασφάλεια”.
Η συμφωνία είναι η πιο πρόσφατη από μια σειρά πρωτοβουλιών από κυβερνήσεις σε όλο τον κόσμο για τη διαμόρφωση της ανάπτυξης της τεχνητής νοημοσύνης, της οποίας ο αντίκτυπος γίνεται όλο και περισσότερο αισθητός στη βιομηχανία και την κοινωνία γενικότερα.
Εκτός από τις Ηνωμένες Πολιτείες και τη Βρετανία, οι 18 χώρες που υπέγραψαν τις νέες κατευθυντήριες γραμμές περιλαμβάνουν την Αυστραλία, τον Καναδά, τη
Νέα Ζηλανδία
, τη Χιλή, την Τσεχία, την Εσθονία, τη Γαλλία, τη Γερμανία, το
Ισραήλ
, την Ιταλία, την Ιαπωνία, τη Νιγηρία, τη Νορβηγία, την Πολωνία, την Κορέα , Σιγκαπούρη.
Το πλαίσιο εστιάζει σε ερωτήσεις σχετικά με τον τρόπο πρόληψης της κακής χρήσης τεχνητής νοημοσύνης από χάκερ και περιλαμβάνει αρκετές συστάσεις, όπως η διάθεση μοντέλων μόνο μετά από κατάλληλη δοκιμή ασφαλείας.
Δεν εξετάζει ακανθώδη ερωτήματα σχετικά με τις χρήσεις της τεχνητής νοημοσύνης ή τον τρόπο συλλογής των δεδομένων που τροφοδοτούν αυτά τα μοντέλα.
VIA:
InfoCom.gr
