Η δικονομική δικαιοσύνη μπορεί να αντιμετωπίσει το πρόβλημα εμπιστοσύνης/νομιμότητας της γενετικής τεχνητής νοημοσύνης
Related Posts
Η πολυδιαφημισμένη άφιξη της γενετικής τεχνητής νοημοσύνης έχει αναζωπυρώσει μια οικεία συζήτηση σχετικά με την εμπιστοσύνη και την ασφάλεια: Μπορούν να εμπιστευτούν τα στελέχη τεχνολογίας για να διατηρήσουν τα καλύτερα συμφέροντα της κοινωνίας στο επίκεντρο;
Επειδή τα δεδομένα εκπαίδευσής του δημιουργούνται από ανθρώπους, η τεχνητή νοημοσύνη είναι εγγενώς επιρρεπής σε μεροληψία και επομένως υπόκειται στους δικούς μας ατελείς, συναισθηματικά κατευθυνόμενους τρόπους να βλέπουμε τον κόσμο. Γνωρίζουμε πολύ καλά τους κινδύνους, από την ενίσχυση των διακρίσεων και των φυλετικών ανισοτήτων μέχρι την προώθηση της πόλωσης.
Ο CEO της OpenAI, Sam Altman, έχει
ζήτησε την «υπομονή και καλή πίστη» μας
καθώς εργάζονται για να «το κάνουν σωστά».
Για δεκαετίες, θέτουμε υπομονετικά την πίστη μας στα στελέχη τεχνολογίας σε κίνδυνο: Το δημιούργησαν, έτσι τους πιστέψαμε όταν είπαν ότι μπορούσαν να το διορθώσουν. Η εμπιστοσύνη στις εταιρείες τεχνολογίας συνεχίζει να πέφτει κατακόρυφα και σύμφωνα με το βαρόμετρο Edelman Trust του 2023,
παγκοσμίως το 65% ανησυχεί
Η τεχνολογία θα καταστήσει αδύνατο να γνωρίζουμε εάν αυτά που βλέπουν ή ακούν οι άνθρωποι είναι αληθινά.
Είναι καιρός η Silicon Valley να υιοθετήσει μια διαφορετική προσέγγιση για να κερδίσει την εμπιστοσύνη μας — μια προσέγγιση που έχει αποδειχθεί αποτελεσματική στο νομικό σύστημα της χώρας.
Μια προσέγγιση διαδικαστικής δικαιοσύνης για την εμπιστοσύνη και τη νομιμότητα
Με βάση την κοινωνική ψυχολογία, η διαδικαστική δικαιοσύνη βασίζεται σε έρευνα που δείχνει ότι οι άνθρωποι πιστεύουν ότι οι θεσμοί και οι φορείς είναι πιο αξιόπιστοι και νόμιμοι όταν ακούγονται και βιώνουν ουδέτερη, αμερόληπτη και διαφανή λήψη αποφάσεων.
Τέσσερα βασικά στοιχεία της δικονομικής δικαιοσύνης είναι:
- Ουδετερότητα: Οι αποφάσεις είναι αμερόληπτες και καθοδηγούνται από διαφανή συλλογιστική.
- Σεβασμός: Όλοι αντιμετωπίζονται με σεβασμό και αξιοπρέπεια.
- Φωνή: Ο καθένας έχει την ευκαιρία να πει τη δική του πλευρά της ιστορίας.
- Αξιοπιστία: Οι υπεύθυνοι λήψης αποφάσεων μεταφέρουν αξιόπιστα κίνητρα για εκείνους που επηρεάζονται από τις αποφάσεις τους.
Χρησιμοποιώντας αυτό το πλαίσιο, η αστυνομία έχει βελτιώσει την εμπιστοσύνη και τη συνεργασία στις κοινότητές της και ορισμένες εταιρείες μέσων κοινωνικής δικτύωσης αρχίζουν να το κάνουν
χρησιμοποιήστε αυτές τις ιδέες για να διαμορφώσετε τη διακυβέρνηση και τη μετριοπάθεια
προσεγγίσεις.
Ακολουθούν μερικές ιδέες για το πώς οι εταιρείες τεχνητής νοημοσύνης μπορούν να προσαρμόσουν αυτό το πλαίσιο για να οικοδομήσουν εμπιστοσύνη και νομιμότητα.
Δημιουργήστε τη σωστή ομάδα για να απαντήσει στις σωστές ερωτήσεις
Οπως και
Καθηγήτρια του UCLA Safiya Noble
υποστηρίζει, τα ερωτήματα γύρω από την αλγοριθμική προκατάληψη δεν μπορούν να λυθούν μόνο από τους μηχανικούς, επειδή είναι συστημικά κοινωνικά ζητήματα που απαιτούν ανθρωπιστικές προοπτικές – εκτός οποιασδήποτε εταιρείας – για να διασφαλιστεί η κοινωνική συνομιλία, η συναίνεση και τελικά η ρύθμιση – τόσο για τον εαυτό όσο και για την κυβέρνηση.
Σε
“Σφάλμα συστήματος: Πού πήγε στραβά η μεγάλη τεχνολογία και πώς μπορούμε να επανεκκινήσουμε,”
τρεις καθηγητές του Στάνφορντ συζητούν κριτικά τις ελλείψεις της εκπαίδευσης στην επιστήμη των υπολογιστών και της κουλτούρας της μηχανικής για την εμμονή της με τη βελτιστοποίηση, συχνά παραμερίζοντας αξίες που είναι βασικές για μια δημοκρατική κοινωνία.
Σε μια ανάρτηση στο blog,
Το Open AI λέει ότι εκτιμά την κοινωνική συνεισφορά
: «Επειδή η άνοδος του AGI είναι τόσο μεγάλη, δεν πιστεύουμε ότι είναι δυνατό ή επιθυμητό για την κοινωνία να σταματήσει για πάντα την ανάπτυξή της. Αντίθετα, η κοινωνία και οι προγραμματιστές του AGI πρέπει να βρουν πώς να το κάνουν σωστά».
Ωστόσο, η σελίδα προσλήψεων και ο ιδρυτής της εταιρείας
Τα tweets του Sam Altman
Δείξτε ότι η εταιρεία προσλαμβάνει πλήθος μηχανικών μηχανικής μάθησης και επιστημόνων υπολογιστών, επειδή «το ChatGPT έχει έναν φιλόδοξο οδικό χάρτη και είναι στενόχωρος από τη μηχανική».
Είναι αυτοί οι επιστήμονες και οι μηχανικοί υπολογιστών εξοπλισμένοι για να λάβουν αποφάσεις που, όπως είπε το OpenAI, “
θα απαιτήσει πολύ μεγαλύτερη προσοχή από ό,τι συνήθως εφαρμόζει η κοινωνία στις νέες τεχνολογίες
”;
Οι εταιρείες τεχνολογίας θα πρέπει να προσλάβουν διεπιστημονικές ομάδες που περιλαμβάνουν κοινωνικούς επιστήμονες που κατανοούν τις ανθρώπινες και κοινωνικές επιπτώσεις της τεχνολογίας. Με μια ποικιλία προοπτικών σχετικά με τον τρόπο εκπαίδευσης εφαρμογών τεχνητής νοημοσύνης και εφαρμογής παραμέτρων ασφαλείας, οι εταιρείες μπορούν να διατυπώσουν διαφανή αιτιολογία για τις αποφάσεις τους. Αυτό μπορεί, με τη σειρά του, να ενισχύσει την αντίληψη του κοινού για την τεχνολογία ως ουδέτερη και αξιόπιστη.
Συμπεριλάβετε ξένες προοπτικές
Ένα άλλο στοιχείο της δικονομικής δικαιοσύνης είναι να δίνει στους ανθρώπους την ευκαιρία να συμμετάσχουν σε μια διαδικασία λήψης αποφάσεων. Σε μια πρόσφατη
blog
ανάρτηση σχετικά με τον τρόπο με τον οποίο η εταιρεία OpenAI αντιμετωπίζει τη μεροληψία, η εταιρεία είπε ότι επιδιώκει «εξωτερική συμβολή στην τεχνολογία μας» υποδεικνύοντας μια πρόσφατη κόκκινη ομαδική άσκηση, μια διαδικασία αξιολόγησης του κινδύνου μέσω μιας αντίπαλης προσέγγισης.
Ενώ η κόκκινη ομαδοποίηση είναι μια σημαντική διαδικασία για την αξιολόγηση του κινδύνου, πρέπει να περιλαμβάνει εξωτερική εισροή. Σε
Η κόκκινη ομαδική άσκηση του OpenAI
, 82 από τους 103 συμμετέχοντες ήταν εργαζόμενοι. Από τους υπόλοιπους 23 συμμετέχοντες, η πλειονότητα ήταν μελετητές της πληροφορικής από κυρίως δυτικά πανεπιστήμια. Για να αποκτήσουν διαφορετικές απόψεις, οι εταιρείες πρέπει να κοιτάξουν πέρα από τους υπαλλήλους τους, τους κλάδους και τη γεωγραφία τους.
Μπορούν επίσης να ενεργοποιήσουν πιο άμεση ανατροφοδότηση σε προϊόντα τεχνητής νοημοσύνης παρέχοντας στους χρήστες μεγαλύτερο έλεγχο σχετικά με την απόδοση του AI. Μπορεί επίσης να εξετάσουν το ενδεχόμενο παροχής ευκαιριών για δημόσιο σχολιασμό σχετικά με νέες αλλαγές πολιτικής ή προϊόντων.
Εξασφάλιση διαφάνειας
Οι εταιρείες θα πρέπει να διασφαλίζουν ότι όλοι οι κανόνες και οι σχετικές διαδικασίες ασφάλειας είναι διαφανείς και μεταφέρουν αξιόπιστα κίνητρα σχετικά με τον τρόπο λήψης των αποφάσεων. Για παράδειγμα, είναι σημαντικό να παρέχουμε στο κοινό πληροφορίες σχετικά με το πώς εκπαιδεύονται οι εφαρμογές, από πού αντλούνται δεδομένα, ποιος είναι ο ρόλος των ανθρώπων στη διαδικασία εκπαίδευσης και ποια επίπεδα ασφάλειας υπάρχουν για την ελαχιστοποίηση της κακής χρήσης.
Το να επιτρέπεται στους ερευνητές να ελέγχουν και να κατανοούν μοντέλα τεχνητής νοημοσύνης είναι το κλειδί για την οικοδόμηση εμπιστοσύνης.
Ο Άλτμαν τα κατάφερε σωστά σε ένα πρόσφατο
ABC News
συνέντευξη όταν είπε: «Η κοινωνία, νομίζω, έχει περιορισμένο χρόνο για να καταλάβει πώς να αντιδράσει σε αυτό, πώς να το ρυθμίσει, πώς να το χειριστεί».
Μέσω μιας προσέγγισης διαδικαστικής δικαιοσύνης, αντί της αδιαφάνειας και της τυφλής πίστης της προσέγγισης των προκατόχων της τεχνολογίας, οι εταιρείες που κατασκευάζουν πλατφόρμες τεχνητής νοημοσύνης μπορούν να εμπλέξουν την κοινωνία στη διαδικασία και να κερδίσουν —όχι να απαιτούν— εμπιστοσύνη και νομιμότητα.

