Κάνοντας την τεχνητή νοημοσύνη αξιόπιστη: Μπορούμε να ξεπεράσουμε τις παραισθήσεις του μαύρου κουτιού;


Όπως οι περισσότεροι μηχανικοί

ως παιδί μπορούσα να απαντήσω στα μαθηματικά του δημοτικού σχολείου συμπληρώνοντας απλώς τις απαντήσεις.

Αλλά όταν δεν «έδειξα τη δουλειά μου», οι δάσκαλοί μου έδιναν πόντους. η σωστή απάντηση δεν άξιζε πολλά χωρίς εξήγηση. Ωστόσο, αυτά τα υψηλά πρότυπα για την επεξήγηση σε μακρά διαίρεση κατά κάποιο τρόπο δεν φαίνεται να ισχύουν για συστήματα τεχνητής νοημοσύνης, ακόμη και σε εκείνα που λαμβάνουν κρίσιμες αποφάσεις που επηρεάζουν τη ζωή.

Οι σημαντικότεροι παίκτες τεχνητής νοημοσύνης που γεμίζουν τα σημερινά πρωτοσέλιδα και τροφοδοτούν τους παροξυσμούς των χρηματιστηρίων — OpenAI, Google,

— λειτουργούν τις πλατφόρμες τους σε μοντέλα μαύρου κουτιού. Ένα ερώτημα πηγαίνει στη μία πλευρά και μια απάντηση φτύνει την άλλη πλευρά, αλλά δεν έχουμε ιδέα ποια δεδομένα ή συλλογιστική χρησιμοποίησε η τεχνητή νοημοσύνη για να δώσει αυτήν την απάντηση.

Οι περισσότερες από αυτές τις πλατφόρμες τεχνητής νοημοσύνης μαύρου κουτιού είναι χτισμένες σε ένα τεχνολογικό πλαίσιο δεκαετιών που ονομάζεται «νευρωνικό δίκτυο». Αυτά τα μοντέλα τεχνητής νοημοσύνης είναι αφηρημένες αναπαρασ

του τεράστιου όγκου δεδομένων στα οποία έχουν εκπαιδευτεί. δεν συνδέονται άμεσα με τα δεδομένα

ς. Έτσι, οι τεχνητές νοημοσύνης μαύρου κουτιού συνάγουν και προεκτείνουν με βάση αυτή που πιστεύουν ότι είναι η πιο πιθανή απάντηση και όχι τα πραγματικά δεδομένα.

Μερικές φορές αυτή η περίπλοκη προγνωστική διαδικασία ξεφεύγει από τον έλεγχο και η τεχνητή νοημοσύνη «παραισθάνεται». Από τη φύση της, η τεχνητή νοημοσύνη μαύρου κουτιού είναι εγγενώς αναξιόπιστη επειδή δεν μπορεί να θεωρηθεί υπεύθυνη για τις ενέργειές της. Εάν δεν μπορείτε να δείτε γιατί ή πώς η τεχνητή νοημοσύνη κάνει μια πρόβλεψη, δεν έχετε τρόπο να μάθετε αν χρησιμοποίησε ψευδείς, παραβιασμένες ή μεροληπτικές πληροφορίες ή αλγόριθμους για να καταλήξετε σε αυτό το συμπέρασμα.

Ενώ τα νευρωνικά δίκτυα είναι απίστευτα ισχυρά και εδώ για να μείνουν, υπάρχει ένα άλλο πλαίσιο τεχνητής νοημοσύνης κάτω από το ραντάρ που κερδίζει εξέχουσα θέση: η μάθηση βάσει παραστάσεων (IBL). Και είναι ό,τι

τα νευρωνικά δίκτυα. Το IBL είναι AI που οι χρήστες μπορούν να εμπιστευτούν, να ελέγξουν και να εξηγήσουν. Το IBL εντοπίζει κάθε απόφαση πίσω στα δεδομένα εκπαίδευσης που χρησιμοποιήθηκαν για να καταλήξουμε σε αυτό το συμπέρασμα.

Από τη φύση της, η τεχνητή νοημοσύνη μαύρου κουτιού είναι εγγενώς αναξιόπιστη επειδή δεν μπορεί να θεωρηθεί υπεύθυνη για τις ενέργειές της.

Το IBL μπορεί να εξηγήσει κάθε απόφαση επειδή το AI δεν δημιουργεί ένα αφηρημένο μοντέλο των δεδομένων, αλλά αντίθετα λαμβάνει αποφάσεις από τα ίδια τα δεδομένα. Και οι χρήστες μπορούν να ελέγχουν την τεχνητή νοημοσύνη που βασίζεται στο IBL, να την ανακρίνουν για να μάθουν γιατί και πώς έλαβε αποφάσεις και στη συνέχεια να επέμβουν για να διορθώσουν λάθη ή μεροληψία.

Όλα αυτά λειτουργούν επειδή το IBL αποθηκεύει δεδομένα εκπαίδευσης («στιγμιότυπα») στη μνήμη και, ευθυγραμμισμένη με τις αρχές των «πλησιέστερων γειτόνων», κάνει προβλέψεις για νέες περιπτώσεις, δεδομένης της φυσικής τους σχέσης με τις υπάρχουσες περιπτώσεις. Το IBL είναι επικεντρωμένο στα δεδομένα, επομένως τα μεμονωμένα σημεία δεδομένων μπορούν να συγκριθούν απευθείας μεταξύ τους για να αποκτήσετε μια εικόνα για το σύνολο δεδομένων και τις προβλέψεις. Με άλλα λόγια, το IBL «δείχνει τη δουλειά του».

Η δυνατότητα για μια τέτοια κατανοητή τεχνητή νοημοσύνη είναι σαφής. Οι εταιρείες, οι κυβερνήσεις και οποιεσδήποτε άλλες ρυθμιζόμενες οντότητες που θέλουν να αναπτύξουν την τεχνητή νοημοσύνη με αξιόπιστο, εξηγήσιμο και ελεγχόμενο τρόπο θα μπορούσαν να χρησιμοποιήσουν το IBL AI για να πληρούν τα ρυθμιστικά πρότυπα και τα πρότυπα συμμόρφωσης. Το IBL AI θα είναι επίσης ιδιαίτερα χρήσιμο για οποιεσδήποτε εφαρμογές όπου οι ισχυρισμοί μεροληψίας είναι ανεξέλεγκτες –

, εισαγωγές κολεγίων, νομικές υποθέσεις κ.λπ.



techcrunch.com


Leave A Reply



Cancel Reply

Your email address will not be published.