Ορισμός της δικαιοσύνης: Πώς η IBM αντιμετωπίζει τη διακυβέρνηση της τεχνητής νοημοσύνης


Οι επιχειρήσεις διστάζουν να υιοθετήσουν λύσεις τεχνητής νοημοσύνης λόγω της δυσκολίας εξισορρόπησης του κόστους διακυβέρνησης με τις συμπεριφορές μεγάλων γλωσσικών μοντέλων (LLM), όπως παραισθήσεις, παραβιάσεις του απορρήτου δεδομένων και η πιθανότητα τα μοντέλα να παράγουν επιβλαβές περιεχόμενο.

Μία από τις πιο δύσκολες προκλήσεις που αντιμετωπίζει η υιοθέτηση του LLM είναι να προσδιορίσουμε στο μοντέλο τι είναι η επιβλαβής απάντηση, αλλά η IBM πιστεύει ότι μπορεί να βοηθήσει στη βελτίωση της κατάστασης για τις εταιρείες παντού.

Μιλώντας σε εκδήλωση στη Ζυρίχη, η Elizabeth Daly, STSM, Research Manager, Interactive AI Group της IBM Research Europe, τόνισε ότι η εταιρεία επιδιώκει να αναπτύξει τεχνητή νοημοσύνη που να μπορούν να εμπιστεύονται οι προγραμματιστές, σημειώνοντας: «Είναι εύκολο να μετρηθούν και να ποσοτικοποιηθούν τα κλικ, δεν είναι τόσο εύκολο να μετρηθεί και να ποσοτικοποιηθεί το επιβλαβές περιεχόμενο».

Ανίχνευση, Έλεγχος, Έλεγχος

Οι γενικές πολιτικές διακυβέρνησης δεν επαρκούν για τον έλεγχο των LLM, επομένως η IBM επιδιώκει να αναπτύξει το LLMS για να χρησιμοποιήσει τη νομοθεσία, τα εταιρικά πρότυπα και την εσωτερική διακυβέρνηση κάθε μεμονωμένης επιχείρησης ως μηχανισμό ελέγχου – επιτρέποντας στη διακυβέρνηση να υπερβεί τα εταιρικά πρότυπα και να ενσωματώσει την ατομική ηθική και ηθική. κοινωνικών κανόνων της χώρας, της περιοχής ή της βιομηχανίας στην οποία χρησιμοποιείται.

Αυτά τα έγγραφα μπορούν να παρέχουν το πλαίσιο σε ένα LLM και μπορούν να χρησιμοποιηθούν για να «ανταμείψουν» ένα LLM επειδή παραμένει σχετικό με την τρέχουσα αποστολή του. Αυτό επιτρέπει ένα καινοτόμο επίπεδο λεπτομέρειας για τον προσδιορισμό του πότε η τεχνητή νοημοσύνη εξάγει επιβλαβές περιεχόμενο που μπορεί να παραβιάζει τους κοινωνικούς κανόνες μιας περιοχής και μπορεί ακόμη και να επιτρέψει σε μια τεχνητή νοημοσύνη να ανιχνεύσει εάν τα δικά της αποτελέσματα θα μπορούσαν να αναγνωριστούν ως επιβλαβή.

Επιπλέον, η IBM ήταν σχολαστική στην ανάπτυξη των LLM της σε δεδομένα που είναι αξιόπιστα και ανιχνεύει, ελέγχει και ελέγχει για πιθανές προκαταλήψεις σε κάθε επίπεδο, και έχει εφαρμόσει μηχανισμούς ανίχνευσης σε κάθε στάδιο του αγωγού. Αυτό έρχεται σε πλήρη αντίθεση με τα μοντέλα θεμελίωσης εκτός ραφιού, τα οποία συνήθως εκπαιδεύονται σε μεροληπτικά δεδομένα και ακόμη κι αν αυτά τα δεδομένα αφαιρεθούν αργότερα, οι προκαταλήψεις μπορούν να επανεμφανιστούν.

Ο προτεινόμενος νόμος για την τεχνητή νοημοσύνη της ΕΕ θα συνδέσει τη διακυβέρνηση της τεχνητής νοημοσύνης με τις προθέσεις των χρηστών της και η IBM δηλώνει ότι η χρήση αποτελεί θεμελιώδες μέρος του τρόπου με τον οποίο θα διέπει το μοντέλο της, καθώς ορισμένοι χρήστες ενδέχεται να χρησιμοποιούν την τεχνητή νοημοσύνη της για εργασίες σύνοψης και άλλοι μπορεί να χρησιμοποιούν για εργασίες ταξινόμησης. Ο Daly δηλώνει ότι η χρήση είναι επομένως «πολίτης πρώτης κατηγορίας» στο μοντέλο διακυβέρνησης της IBM.


VIA:

TechRadar.com/


Follow TechWar.gr on Google News