Η τεχνητή νοημοσύνη είναι επικίνδυνη επιχείρηση, αλλά η Google έχει ένα νέο πλαίσιο για να κρατά τα πράγματα υπό έλεγχο

Στο I/O 2023, η

κατέστησε σαφές ότι η τεχνητή νοημοσύνη θα μπορούσε να παίξει σημαντικό ρόλο στη διαμόρφωση του μέλλοντος της ανθρωπότητας. Όμως, όπως κάθε άλλη εικονική οντότητα, τα εργαλεία AI είναι επιρρεπή σε κυβερνοεπιθέσεις και κακή χρήση. Βρισκόμαστε ακόμη στις πρώτες μέρες της τεχνολογίας, ωστόσο, και η Google θέλει να βοηθήσει τις εταιρείες με πολιτικές που διασφαλίζουν ότι η ασφάλεια των μοντέλων τεχνητής νοημοσύνης και των δεδομένων των χρηστών δεν είναι απλώς μια μεταγενέστερη σκέψη για τη συμμόρφωση με τους κανονισμούς.



ΑΣΤΥΝΟΜΙΚΟ ΒΙΝΤΕΟ ΤΗΣ ΗΜΕΡΑΣ


ΚΥΛΙΣΤΕ ΓΙΑ ΝΑ ΣΥΝΕΧΙΣΕΤΕ ΜΕ ΠΕΡΙΕΧΟΜΕΝΟ

Σήμερα, η κυβερνοασφάλεια πρέπει να είναι προληπτική αντί να διορθώνει τα κενά μετά την αντιμετώπιση της ζημίας. Με τα μοντέλα τεχνητής νοημοσύνης, υπάρχει σοβαρός κίνδυνος κακών ηθοποιών να κλέψουν δεδομένα εκπαίδευσης ή να αλλάξουν μοντέλα τεχνητής νοημοσύνης ώστε να ταιριάζουν στην ατζέντα τους. Η Google έχει προτείνει α

πλαίσιο έξι σημείων

που ονομάστηκε Secure AI Framework ή SAIF (

μέσω Αξιού

), για να διαφυλάξουν τις προσπάθειες τεχνητής νοημοσύνης καθώς οι εταιρείες σπεύδουν να αναπτύξουν τις προσφορές τους πριν από τους ανταγωνιστές τους.

Πρώτον, η εταιρεία προτείνει να αναλυθεί ο τρόπος με τον οποίο τα υπάρχοντα μέτρα ασφαλείας μιας επιχείρησης μπορούν να επεκταθούν ώστε να ενσωματωθούν οι προσπάθειες τεχνητής νοημοσύνης. Ένα παράδειγμα που έρχεται στο μυαλό είναι η κρυπτογράφηση, διαθέσιμη σε διάφορες μορφές και σχετικά εύκολη στην ανάπτυξη. Αυτό θα βοηθούσε τις μικρότερες επιχειρήσεις να διατηρήσουν τις επενδύσεις στην ασφάλεια δεδομένων στο ελάχιστο, παρέχοντας παράλληλα τα περισσότερα από τα σχετικά οφέλη. Η Google προτείνει επίσης να επεκτείνει την υπάρχουσα έρευνα απειλών για να κατανοήσει τους κινδύνους που αντιμετωπίζουν τα μοντέλα τεχνητής νοημοσύνης. Η εφαρμογή αυτού μπορεί να είναι τόσο απλή όσο η παρακολούθηση των εισόδων και των εξόδων της γενετικής τεχνητής νοημοσύνης για τη σύλληψη ανωμαλιών.

Οι αυτοματοποιημένες απαντήσεις σε συμβάντα ασφαλείας είναι ένας άλλος πολύ καλός τρόπος για να περιορίσετε τη ζημιά, όπως το κλείδωμα μιας περιοχής όταν εντοπιστεί ένας ενεργός εγκληματίας εκεί. Η Google θεωρεί ότι οι κακοί ηθοποιοί πιθανότατα θα χρησιμοποιήσουν την τεχνητή νοημοσύνη για να κλιμακώσουν τον αντίκτυπο των πράξεών τους, έτσι οι ερευνητές και οι προγραμματιστές μπορούν να παίξουν μια αντίστροφη κάρτα Uno και να χρησιμοποιήσουν τις αναδυόμενες δυνατότητες AI για να προστατεύσουν προληπτικά την εργασία τους. Περιττό να πούμε ότι η τακτική αναθεώρηση των διασφαλίσεων είναι απλώς καλή πρακτική που πρέπει να ακολουθείται. Με τον ρυθμό με τον οποίο εξελίσσεται η τεχνητή νοημοσύνη, η Google προτείνει στις εταιρείες να δοκιμάζουν τις δικές τους άμυνες περιστασιακά για να διασφαλίσουν ότι μπορούν να αμυνθούν από νεότερες, εξελιγμένες επιθέσεις.

Παρατηρώντας την πανταχού παρούσα απειλή για τα μοντέλα τεχνητής νοημοσύνης, ο Chief Information

Officer (CISO) της Google

, Phil Venables, επεσήμανε μια εκπληκτική ομοιότητα μεταξύ της ασφάλειας της τεχνητής νοημοσύνης και του τρόπου με τον οποίο οι εταιρείες ελέγχουν την πρόσβαση στα δεδομένα. Αυτή η παρατήρηση βοήθησε την Google να αναπτύξει ένα πλαίσιο που είναι εύκολο να εφαρμοστεί και να κλιμακωθεί για τους περισσότερους οργανισμούς που εργάζονται με AI.

Η εταιρεία είναι ανοιχτή στη βελτίωση του πλαισίου μέσω εισροών από διάφορους κυβερνητικούς φορείς και εταίρους του κλάδου. Η Google επέκτεινε επίσης το πρόγραμμα επιβράβευσης σφαλμάτων, ενθαρρύνοντας τους ερευνητές να υποβάλουν ανησυχίες σχετικά με την ασφάλεια της τεχνητής νοημοσύνης. Με αυτά τα μέτρα ασφαλείας, η έρευνα και ανάπτυξη της τεχνητής νοημοσύνης φαίνεται να είναι καλά προστατευμένη από τις επιθέσεις και τις προσπάθειες κακής χρήσης της.


androidpolice.com



Μπορεί επίσης να σας αρέσει


Αφήστε ένα σχόλιο στο άρθρο…



Ακύρωση απάντησης

Η διεύθυνση email σας δεν θα δημοσιευθεί.