Η διακυβέρνηση της τεχνητής νοημοσύνης είναι τώρα ένα ακόμη μεγαλύτερο πρόβλημα, καθώς τα περισσότερα εργαλεία διακυβέρνησης «κουτσάνε»
Μια έκθεση αποκάλυψε ότι πολλά εργαλεία διακυβέρνησης τεχνητής νοημοσύνης είναι αναποτελεσματικά στη μέτρηση της δικαιοσύνης και της επεξήγησης των συστημάτων τεχνητής νοημοσύνης λόγω «ελαττωματικών επιδιορθώσεων».
Πολλά από αυτά τα εργαλεία, που αναπτύχθηκαν από εταιρείες όπως η
Microsoft
, η
Google
και η IBM, χρησιμοποιούνται από τις κυβερνήσεις για να καθορίσουν τη δικαιοσύνη και τη λογοδοσία των συστημάτων τεχνητής νοημοσύνης.
Αλλά α
κανω ΑΝΑΦΟΡΑ
που δημοσιεύθηκε από το Παγκόσμιο Φόρουμ Προστασίας Προσωπικών Δεδομένων ισχυρίζεται ότι πολλά τέτοια συστήματα χρησιμοποιούνται συχνά ακατάλληλα λόγω έλλειψης συγκεκριμένων οδηγιών για τη χρήση τους και έλλειψης κατευθυντήριων γραμμών και απαιτήσεων για τη διασφάλιση ποιότητας.
Η έκθεση εξέτασε 18 εργαλεία διακυβέρνησης που σχεδιάστηκαν για να μειώσουν τον κίνδυνο μεροληψίας και ακρίβειας της τεχνητής νοημοσύνης και διαπίστωσε ότι η έλλειψη κανονισμών, πλαισίου και βασικών απαιτήσεων σήμαινε ότι πολλά από τα εργαλεία χρησιμοποιούνται εσφαλμένα.
«Τα περισσότερα από τα εργαλεία διακυβέρνησης της τεχνητής νοημοσύνης που χρησιμοποιούνται σήμερα είναι κάπως κουτσαίνοντας», σημείωσε η Pam Dixon, ιδρύτρια και εκτελεστική διευθύντρια του World Privacy Forum. «Ένα μεγάλο πρόβλημα είναι ότι δεν υπάρχουν καθιερωμένες απαιτήσεις για διασφάλιση ποιότητας ή αξιολόγηση. Δεν υπάρχουν οδηγίες σχετικά με το πλαίσιο για το οποίο υποτίθεται ότι χρησιμοποιείται ή ακόμη και για ειδοποίηση
σύγκρουση
ς συμφερόντων.»
Ορισμένοι μελετητές που ρωτήθηκαν ως μέρος της έκθεσης επέκριναν τα εργαλεία διακυβέρνησης της AI που «αναφέρουν, συνιστούν ή ενσωματώνουν εκτός ετικέτας χρήσεις δυνητικά ελαττωματικών ή ακατάλληλων εργαλείων», τα οποία θα μπορούσαν να θέσουν σε κίνδυνο τη δικαιοσύνη και την επεξήγηση της τεχνητής νοημοσύνης. Η έκθεση σημείωσε επίσης ότι ορισμένα εργαλεία διακυβέρνησης διαθέτουν διαφορετικά σημεία αναφοράς επιπτώσεων που ισχύουν μόνο σε συγκεκριμένα πλαίσια.
Ένα τέτοιο παράδειγμα είναι ο κανόνας των τεσσάρων πέμπτων, ο οποίος αναγνωρίζεται ευρέως στον τομέα της απασχόλησης των ΗΠΑ ως μέτρο της δικαιοσύνης των διαδικασιών επιλογής προσλήψεων. Ωστόσο, μια μελέτη του 2019 διαπίστωσε ότι ο κανόνας είχε κωδικοποιηθεί σε μια σειρά εργαλείων που χρησιμοποιούνται για τη μέτρηση της δικαιοσύνης της τεχνητής νοημοσύνης σε περιβάλλοντα που δεν σχετίζονται με την απασχόληση, χωρίς να λαμβάνεται υπόψη ο πιθανός αντίκτυπος στα συστήματά τους.
Η έκθεση διαπίστωσε ότι, «τα πρότυπα και οι οδηγίες για την αξιολόγηση της ποιότητας και τη διασφάλιση των εργαλείων διακυβέρνησης της τεχνητής νοημοσύνης δεν φαίνεται να είναι συνεπή σε όλο το
οικοσύστημα
της τεχνητής νοημοσύνης». Η έλλειψη καθολικής διασφάλισης ποιότητας σημαίνει ότι υπάρχουν σημαντικές διαφορές στον τρόπο ρύθμισης των εργαλείων διακυβέρνησης AI και η έκθεση ανέφερε ότι πρέπει να γίνουν περισσότερα, «για να δημιουργηθεί ένα αξιολογητικό περιβάλλον εργαλείων διακυβέρνησης AI που διευκολύνει την επικύρωση, τη διαφάνεια και άλλες μετρήσεις. ”
Η έκθεση συνόψιζε ότι, «Τα ελλιπή ή αναποτελεσματικά εργαλεία διακυβέρνησης της τεχνητής νοημοσύνης μπορούν να δημιουργήσουν μια ψευδή αίσθηση
εμπ
ιστοσύνης, να προκαλέσουν ακούσια προβλήματα και γενικά να υπονομεύσουν την υπόσχεση των συστημάτων τεχνητής νοημοσύνης».
Μέσω
VentureBeat
VIA:
TechRadar.com/

