Women in AI: Rashida Richardson, ανώτερος σύμβουλος στη Mastercard με επίκεντρο την τεχνητή νοημοσύνη και το απόρρητο



Για να δώσει στις γυναίκες ακαδημαϊκές και σε άλλους που άξιζε —και καθυστερήσει— χρόνο στο προσκήνιο, το TechCrunch ξεκινά μια σειρά συνεντεύξεων που επικεντρώνονται σε αξιόλογες γυναίκες που έχουν συνεισφέρει στην επανάσταση της τεχνητής νοημοσύνης. Θα δημοσιεύσουμε πολλά κομμάτια καθ’ όλη τη διάρκεια του έτους καθώς η άνθηση της τεχνητής νοημοσύνης συνεχίζεται, επισημαίνοντας τη βασική δουλειά που συχνά δεν αναγνωρίζεται. Διαβάστε περισσότερα προφίλ εδώ.

Η Rashida Richardson είναι ανώτερη σύμβουλος στη Mastercard, όπου η αρμοδιότητά της έγκειται σε νομικά ζητήματα που σχετίζονται με το απόρρητο και την προστασία δεδομένων εκτός από την

Πρώην διευθυντής πολιτικής έρευνας στο Ινστιτούτο AI Now, το ερευνητικό ινστιτούτο που μελετά τις κοινωνικές επιπτώσεις της τεχνητής νοημοσύνης και ανώτερος σύμβουλος πολιτικής για δεδομένα και δημοκρατία στο Γραφείο Επιστήμης και Τεχνολογικής Πολιτικής του Λευκού Οίκου, ο Richardson ήταν επίκουρος καθηγητής Νομικής και πολιτικές επιστήμες στο Northeastern University από το 2021. Εκεί, ειδικεύεται σε αγώνες και αναδυόμενες τεχνολογίες.

Rashida Richardson, ανώτερος σύμβουλος, AI στη Mastercard

Εν συντομία, πώς ξεκινήσατε με την τεχνητή νοημοσύνη; Τι σας τράβηξε στο χώρο;

Το υπόβαθρό μου είναι ως δικηγόρος

δικαιωμάτων, όπου εργάστηκα σε μια σειρά θεμάτων όπως η ιδιωτική ζωή, η επιτήρηση, η άρση του διαχωρισμού στα σχολεία, η δίκαιη στέγαση και η μεταρρύθμιση της ποινικής δικαιοσύνης. Ενώ εργαζόμουν σε αυτά τα ζητήματα, είδα τα πρώτα στάδια της κυβερνητικής υιοθέτησης και πειραματισμού με τεχνολογίες που βασίζονται στην τεχνητή νοημοσύνη. Σε ορισμένες περιπτώσεις, οι κίνδυνοι και οι ανησυχίες ήταν εμφανείς και βοήθησα να καθοδηγήσω μια σειρά από προσπάθειες τεχνολογικής πολιτικής στην Πολιτεία και την Πόλη της Νέας Υόρκης για τη δημιουργία μεγαλύτερης εποπτείας, αξιολόγησης ή άλλων διασφαλίσεων. Σε άλλες περιπτώσεις, ήμουν εγγενώς δύσπιστος σχετικά με τα οφέλη ή τους ισχυρισμούς αποτελεσματικότητας των λύσεων που σχετίζονται με την τεχνητή νοημοσύνη, ειδικά εκείνων που διατίθενται στο εμπόριο για την επίλυση ή τον μετριασμό δομικών ζητημάτων όπως ο διαχωρισμός των σχολείων ή η δίκαιη στέγαση.

Η προηγούμενη εμπειρία μου με έκανε επίσης να συνειδητοποιήσω τα υπάρχοντα κενά πολιτικής και κανονιστικών ρυθμίσεων. Γρήγορα παρατήρησα ότι υπήρχαν λίγοι άνθρωποι στον χώρο της τεχνητής νοημοσύνης με το υπόβαθρο και την εμπειρία μου ή που πρόσφεραν την ανάλυση και τις πιθανές παρεμβάσεις που ανέπτυζα στο πλαίσιο της υπεράσπισης των πολιτικών και του ακαδημαϊκού μου έργου. Έτσι συνειδητοποίησα ότι αυτό ήταν ένα πεδίο και χώρος όπου μπορούσα να κάνω ουσιαστικές συνεισφορές και επίσης να βασιστώ στην προηγούμενη εμπειρία μου με μοναδικούς τρόπους.

Αποφάσισα να επικεντρώσω τόσο τη νομική μου πρακτική όσο και την ακαδημαϊκή μου εργασία στην τεχνητή νοημοσύνη, συγκεκριμένα σε θέματα πολιτικής και νομικής φύσης που αφορούν την ανάπτυξη και τη χρήση τους.

Για ποια δουλειά είστε περισσότερο περήφανοι (στον τομέα της τεχνητής νοημοσύνης);

Χαίρομαι που το θέμα τυγχάνει επιτέλους μεγαλύτερης προσοχής από όλα τα ενδιαφερόμενα μέρη, αλλά κυρίως από τους υπεύθυνους χάραξης πολιτικής. Υπάρχει μια μακρά ιστορία στις Ηνωμένες Πολιτείες όπου ο νόμος ανταποκρίνεται ή δεν αντιμετωπίζει ποτέ επαρκώς ζητήματα τεχνολογικής πολιτικής, και πριν από 5-6 χρόνια, ένιωθα ότι αυτή μπορεί να είναι η μοίρα της τεχνητής νοημοσύνης, επειδή θυμάμαι ότι ασχολούμαι με τους υπεύθυνους χάραξης πολιτικής, τόσο σε επίσημες ρυθμίσεις όπως ακροάσεις ή εκπαιδευτικά φόρουμ στη Γερουσία των ΗΠΑ, και οι περισσότεροι υπεύθυνοι χάραξης πολιτικής αντιμετώπισαν το ζήτημα ως απόκρυφο ή κάτι που δεν απαιτούσε επείγουσα ανάγκη παρά την ταχεία υιοθέτηση της τεχνητής νοημοσύνης σε όλους τους τομείς. Ωστόσο, τον περασμένο χρόνο, υπήρξε μια σημαντική αλλαγή, έτσι ώστε η τεχνητή νοημοσύνη να είναι ένα σταθερό χαρακτηριστικό του δημόσιου λόγου και οι υπεύθυνοι χάραξης πολιτικής εκτιμούν καλύτερα τα διακυβεύματα και την ανάγκη για ενημερωμένη δράση. Πιστεύω επίσης ότι οι ενδιαφερόμενοι σε όλους τους τομείς, συμπεριλαμβανομένης της βιομηχανίας, αναγνωρίζουν ότι η τεχνητή νοημοσύνη ενέχει μοναδικά οφέλη και κινδύνους που μπορεί να μην επιλυθούν μέσω συμβατικών πρακτικών, επομένως υπάρχει μεγαλύτερη αναγνώριση —ή τουλάχιστον εκτίμηση— για τις παρεμβάσεις πολιτικής.

Πώς αντιμετωπίζετε τις προ

της ανδροκρατούμενης βιομηχανίας τεχνολογίας και, κατ’ επέκταση, της ανδροκρατούμενης βιομηχανίας τεχνητής νοημοσύνης;

Ως μαύρη γυναίκα, έχω συνηθίσει να είμαι μειοψηφία σε πολλούς χώρους, και ενώ οι βιομηχανίες τεχνητής νοημοσύνης και τεχνολογίας είναι εξαιρετικά ομοιογενείς τομείς, δεν είναι

ι ή διαφορετικοί από άλλους τομείς τεράστιας δύναμης και πλούτου, όπως τα οικονομικά και νομιμο επαγγελμα. Επομένως, νομίζω ότι η προηγούμενη δουλειά μου και η εμπειρία μου με βοήθησαν να προετοιμασθώ για αυτόν τον κλάδο, επειδή γνωρίζω υπερβολικά τις προκαταλήψεις που μπορεί να χρειαστεί να ξεπεράσω και τις δύσκολες δυναμικές που πιθανότατα θα συναντήσω. Βασίζομαι στην εμπειρία μου για να πλοηγηθώ, γιατί έχω ένα μοναδικό υπόβαθρο και προοπτική έχοντας εργαστεί στην τεχνητή νοημοσύνη σε όλους τους κλάδους — ακαδημαϊκό χώρο, βιομηχανία, κυβέρνηση και κοινωνία των πολιτών.

Ποια είναι ορισμένα ζητήματα που πρέπει να γνωρίζουν οι χρήστες τεχνητής νοημοσύνης;

Δύο βασικά ζητήματα που πρέπει να γνωρίζουν οι χρήστες τεχνητής νοημοσύνης είναι: (1) μεγαλύτερη κατανόηση των δυνατοτήτων και των περιορισμών διαφορετικών εφαρμογών και μοντέλων τεχνητής νοημοσύνης και (2) πώς υπάρχει μεγάλη αβεβαιότητα σχετικά με την ικανότητα των ισχυόντων και μελλοντικών νόμων να επιλύουν συγκρούσεις ή ορισμένες ανησυχίες σχετικά με τη χρήση AI.

Στο πρώτο σημείο, υπάρχει μια ανισορροπία στη δημόσια συζήτηση και κατανόηση σχετικά με τα οφέλη και τις δυνατότητες των εφαρμογών AI και τις πραγματικές τους δυνατότητες και περιορισμούς. Αυτό το ζήτημα επιδεινώνεται από το γεγονός ότι οι χρήστες τεχνητής νοημοσύνης μπορεί να μην εκτιμούν τη διαφορά μεταξύ εφαρμογών και μοντέλων τεχνητής νοημοσύνης. Η ευαισθητοποίηση του κοινού για την τεχνητή νοημοσύνη αυξήθηκε με την κυκλοφορία του ChatGPT και άλλων εμπορικά διαθέσιμων γενετικών συστημάτων τεχνητής νοημοσύνης, αλλά αυτά τα μοντέλα τεχνητής νοημοσύνης διαφέρουν από άλλους τύπους μοντέλων τεχνητής νοημοσύνης με τα οποία οι καταναλωτές ασχολούνται εδώ και χρόνια, όπως τα συστήματα συστάσεων. Όταν η συζήτηση για την τεχνητή νοημοσύνη είναι μπερδεμένη – όπου η τεχνολογία αντιμετωπίζεται ως μονολιθική – τείνει να διαστρεβλώνει την κατανόηση του κοινού για το τι μπορεί να κάνει πραγματικά κάθε τύπος εφαρμογής ή μοντέλου και τους κινδύνους που συνδέονται με τους περιορισμούς ή τις ελλείψεις τους.

Στο δεύτερο σημείο, ο νόμος και η πολιτική σχετικά με την ανάπτυξη και τη χρήση της τεχνητής νοημοσύνης εξελίσσονται. Ενώ υπάρχει μια ποικιλία νόμων (π.χ. πολιτικά δικαιώματα, προστασία των καταναλωτών,

, δίκαιος δανεισμός) που ισχύουν ήδη για τη χρήση τεχνητής νοημοσύνης, βρισκόμαστε στα πρώτα στάδια για να δούμε πώς θα εφαρμοστούν και θα ερμηνευτούν αυτοί οι νόμοι. Βρισκόμαστε επίσης στα αρχικά στάδια ανάπτυξης πολιτικής που είναι ειδικά προσαρμοσμένη για την τεχνητή νοημοσύνη — αλλά αυτό που έχω παρατηρήσει τόσο από τη νομική πρακτική όσο και από την έρευνά μου είναι ότι υπάρχουν τομείς που παραμένουν ανεπίλυτοι από αυτό το νομικό συνονθύλευμα και θα επιλυθούν μόνο όταν υπάρχουν περισσότερα δικαστικές διαφορές που αφορούν ανάπτυξη και χρήση τεχνητής νοημοσύνης. Γενικά, δεν νομίζω ότι υπάρχει μεγάλη κατανόηση της τρέχουσας κατάστασης του νόμου και της τεχνητής νοημοσύνης και πώς η νομική αβεβαιότητα σχετικά με βασικά ζητήματα όπως η ευθύνη μπορεί να σημαίνει ότι ορισμένοι κίνδυνοι, βλάβες και διαφωνίες μπορεί να παραμείνουν εκκρεμείς μέχρις ότου διαρκέσουν πολλά χρόνια διαφορών μεταξύ επιχειρήσεων ή μεταξύ ρυθμιστικών αρχών και οι εταιρείες παράγουν νομικό προηγούμενο που μπορεί να παρέχει κάποια σαφήνεια.

Ποιος είναι ο καλύτερος τρόπος για να δημιουργήσετε υπεύθυνα AI;

Η πρόκληση με την υπεύθυνη οικοδόμηση της τεχνητής νοημοσύνης είναι ότι πολλοί από τους βασικούς πυλώνες της υπεύθυνης τεχνητής νοημοσύνης, όπως η δικαιοσύνη και η ασφάλεια, βασίζονται σε κανονιστικές αξίες — των οποίων δεν υπάρχουν κοινοί ορισμοί ή κατανόηση αυτών των εννοιών. Έτσι, κάποιος θα μπορούσε πιθανώς να ενεργήσει υπεύθυνα και να εξακολουθεί να προκαλεί βλάβη, ή θα μπορούσε να ενεργήσει κακόβουλα και να βασιστεί στο γεγονός ότι δεν υπάρχουν κοινοί κανόνες αυτών των εννοιών για να διεκδικήσει δράση καλής πίστης. Μέχρι να υπάρξουν παγκόσμια πρότυπα ή κάποιο κοινό πλαίσιο για το τι προορίζεται για την υπεύθυνη οικοδόμηση της τεχνητής νοημοσύνης, ο καλύτερος τρόπος για να επιδιώξει κανείς αυτόν τον στόχο είναι να έχει σαφείς αρχές, πολιτικές, καθοδήγηση και πρότυπα για υπεύθυνη ανάπτυξη και χρήση τεχνητής νοημοσύνης που επιβάλλονται μέσω εσωτερικής εποπτείας. συγκριτική αξιολόγηση και άλλες πρακτικές διακυβέρνησης.

Πώς μπορούν οι επενδυτές να πιέσουν καλύτερα για υπεύθυνη τεχνητή νοημοσύνη;

Οι επενδυτές μπορούν να κάνουν καλύτερη δουλειά στον καθορισμό ή τουλάχιστον στο να διευκρινίσουν τι συνιστά υπεύθυνη ανάπτυξη ή χρήση τεχνητής νοημοσύνης και να αναλάβουν δράση όταν οι πρακτικές του παράγοντα της τεχνητής νοημοσύνης δεν ευθυγραμμίζονται. Επί του παρόντος, η «υπεύθυνη» ή η «αξιόπιστη» τεχνητή νοημοσύνη είναι ουσιαστικά όροι μάρκετινγκ, επειδή δεν υπάρχουν σαφή πρότυπα για την αξιολόγηση των πρακτικών των παραγόντων της τεχνητής νοημοσύνης. Ενώ ορισμένοι εκκολαπτόμενοι κανονισμοί όπως ο νόμος της ΕΕ για την τεχνητή νοημοσύνη θα θεσπίσουν ορισμένες απαιτήσεις διακυβέρνησης και επίβλεψης, εξακολουθούν να υπάρχουν τομείς όπου οι φορείς της τεχνητής νοημοσύνης μπορούν να παρακινηθούν από επενδυτές να αναπτύξουν καλύτερες πρακτικές που επικεντρώνουν τις ανθρώπινες αξίες ή το κοινωνικό καλό. Ωστόσο, εάν οι επενδυτές δεν είναι πρόθυμοι να δράσουν όταν υπάρχει κακή ευθυγράμμιση ή ενδείξεις κακών παραγόντων, τότε θα υπάρχει μικρό κίνητρο για προσαρμογή συμπεριφοράς ή πρακτικών.


VIA:

techcrunch.com


Follow TechWar.gr on Google News