Οι εταιρείες τεχνητής νοημοσύνης πρέπει να αποδείξουν ότι η τεχνητή νοημοσύνη τους είναι ασφαλής, λέει ο μη κερδοσκοπικός όμιλος
Μη κερδοσκοπικοί οργανισμοί Accountable Tech, AI Now, και το Electronic Privacy Information Center (EPIC)
δημοσίευσε προτάσεις πολιτικής
που επιδιώκουν να περιορίσουν την ισχύ που έχουν οι μεγάλες εταιρείες τεχνητής νοημοσύνης σε ρυθμίσεις που θα μπορούσαν επίσης να επεκτείνουν την ισχύ των κυβερνητικών υπηρεσιών έναντι ορισμένων χρήσεων της γενετικής τεχνητής νοημοσύνης.
Η ομάδα έστειλε το πλαίσιο σε πολιτικούς και κυβερνητικούς φορείς κυρίως στις ΗΠΑ αυτόν τον μήνα, ζητώντας τους να το εξετάσουν κατά τη δημιουργία νέων νόμων και κανονισμών σχετικά με την τεχνητή νοημοσύνη.
Το πλαίσιο, το οποίο ονομάζουν Zero Trust AI Governance, βασίζεται σε τρεις αρχές: επιβολή υφιστάμενων νόμων. Δημιουργήστε τολμηρούς, εύκολα εφαρμόσιμους κανόνες φωτεινής γραμμής. και να επιβαρύνουν τις εταιρείες να αποδείξουν ότι τα συστήματα τεχνητής νοημοσύνης δεν είναι επιβλαβή σε κάθε φάση του κύκλου ζωής της τεχνητής νοημοσύνης. Ο ορισμός του για την τεχνητή νοημοσύνη περιλαμβάνει τόσο τη γενετική τεχνητή νοημοσύνη όσο και τα βασικά μοντέλα που το επιτρέπουν, μαζί με την αλγοριθμική λήψη αποφάσεων.
«Θέλαμε να βγάλουμε το πλαίσιο τώρα γιατί η τεχνολογία εξελίσσεται γρήγορα, αλλά οι νέοι νόμοι δεν μπορούν να κινηθούν με αυτή την ταχύτητα», λέει ο Jesse Lehrich, συνιδρυτής της Accountable Tech.
Το χείλος
.
«Αλλά αυτό μας δίνει χρόνο να μετριάζουμε τη μεγαλύτερη ζημιά, καθώς βρίσκουμε τον καλύτερο τρόπο ρύθμισης της προανάπτυξης των μοντέλων».
Προσθέτει ότι, με την προεκλογική περίοδο να πλησιάζει, το Κογκρέσο θα αναχωρήσει σύντομα για την προεκλογική εκστρατεία, αφήνοντας τη μοίρα της ρύθμισης της τεχνητής νοημοσύνης στον αέρα.
Καθώς η κυβέρνηση συνεχίζει να ανακαλύπτει πώς να ρυθμίζει τη γενετική τεχνητή νοημοσύνη, η ομάδα είπε ότι οι ισχύοντες νόμοι σχετικά με την καταπολέμηση των διακρίσεων, την προστασία των καταναλωτών και τον ανταγωνισμό βοηθούν στην αντιμετώπιση των σημερινών βλαβών.
Οι διακρίσεις και η προκατάληψη στην τεχνητή νοημοσύνη είναι κάτι για το οποίο οι ερευνητές προειδοποιούν εδώ και χρόνια.
Πρόσφατο
Βράχος που κυλά
άρθρο καταγράφει πώς γνωστοί ειδικοί όπως ο Timnit Gebru κρούουν τον κώδωνα του κινδύνου για αυτό το θέμα για χρόνια και αγνοούνται από τις εταιρείες που τους απασχολούσαν.
Ο Lehrich επεσήμανε την έρευνα της Ομοσπονδιακής Επιτροπής Εμπορίου για το
OpenAI
ως παράδειγμα υφιστάμενων κανόνων που χρησιμοποιούνται για την ανακάλυψη πιθανής βλάβης των καταναλωτών. Άλλες κυβερνητικές υπηρεσίες έχουν επίσης προειδοποιήσει τις εταιρείες τεχνητής νοημοσύνης ότι θα παρακολουθούν στενά τη χρήση της τεχνητής νοημοσύνης στους συγκεκριμένους τομείς τους.
Το Κογκρέσο έχει πραγματοποιήσει αρκετές ακροάσεις προσπαθώντας να βρει τι πρέπει να κάνει για την άνοδο της γενετικής τεχνητής νοημοσύνης. Ο ηγέτης της πλειοψηφίας της Γερουσίας Τσακ Σούμερ προέτρεψε τους συναδέλφους να «επιταχύνουν τον ρυθμό» στη διαμόρφωση κανόνων τεχνητής νοημοσύνης. Μεγάλες εταιρείες τεχνητής νοημοσύνης όπως η OpenAI ήταν ανοιχτές στη συνεργασία με την κυβέρνηση των ΗΠΑ για τη δημιουργία κανονισμών και υπέγραψαν ακόμη και μια μη δεσμευτική, ανεφάρμοστη συμφωνία με τον Λευκό Οίκο για την ανάπτυξη υπεύθυνης τεχνητής νοημοσύνης.
Το πλαίσιο Zero Trust AI επιδιώκει επίσης να επαναπροσδιορίσει τα όρια των νόμων για την ψηφιακή θωράκιση, όπως η Ενότητα 230, έτσι ώστε οι εταιρείες παραγωγής τεχνητής νοημοσύνης να θεωρούνται υπεύθυνες εάν το μοντέλο βγάζει ψευδείς ή επικίνδυνες πληροφορίες.
“Η ιδέα πίσω από το Section 230 έχει νόημα σε γενικές γραμμές, αλλά υπάρχει διαφορά μεταξύ μιας κακής κριτικής στο Yelp επειδή κάποιος μισεί το εστιατόριο και του GPT που φτιάχνει δυσφημιστικά πράγματα”, λέει ο Lehrich. (Η ενότητα 230 εγκρίθηκε εν μέρει ακριβώς για να προστατεύσει τις διαδικτυακές υπηρεσίες από την ευθύνη για δυσφημιστικό περιεχόμενο, αλλά δεν υπάρχει κανένα τεκμηριωμένο προηγούμενο για το εάν πλατφόρμες όπως το
ChatGPT
μπορούν να θεωρηθούν υπεύθυνες για τη δημιουργία ψευδών και επιζήμιων δηλώσεων.)
Και καθώς οι νομοθέτες συνεχίζουν να συναντώνται με εταιρείες τεχνητής νοημοσύνης, τροφοδοτώντας τους φόβους για σύλληψη ρυθμιστικών αρχών, η Accountable Tech και οι συνεργάτες της πρότειναν αρκετούς ευφυείς κανόνες ή πολιτικές που είναι σαφώς καθορισμένες και δεν αφήνουν περιθώρια υποκειμενικότητας.
Αυτά περιλαμβάνουν την απαγόρευση της χρήσης AI για αναγνώριση συναισθημάτων, την προγνωστική αστυνόμευση, την αναγνώριση προσώπου που χρησιμοποιείται για μαζική παρακολούθηση σε δημόσιους χώρους, την κοινωνική βαθμολογία και την πλήρως αυτοματοποιημένη πρόσληψη, απόλυση και διαχείριση ανθρώπινου δυναμικού. Ζητούν επίσης να απαγορευτεί η συλλογή ή η επεξεργασία περιττών ποσοτήτων ευαίσθητων δεδομένων για μια δεδομένη υπηρεσία, η συλλογή βιομετρικών δεδομένων σε τομείς όπως η εκπαίδευση και οι προσλήψεις και η «διαφήμιση παρακολούθησης».
Η Accountable Tech προέτρεψε επίσης τους νομοθέτες να αποτρέψουν τους μεγάλους παρόχους
cloud
από το να κατέχουν ή να έχουν ωφέλιμο συμφέρον σε μεγάλες εμπορικές υπηρεσίες τεχνητής νοημοσύνης για να περιορίσουν τον αντίκτυπο των εταιρειών Big Tech στο οικοσύστημα AI. Οι πάροχοι cloud, όπως η
Microsoft
και η
Google
, έχουν τεράστια επιρροή στη γενετική τεχνητή νοημοσύνη. Το OpenAI, ο πιο γνωστός προγραμματιστής γενετικής τεχνητής νοημοσύνης, συνεργάζεται με τη Microsoft, η οποία επένδυσε επίσης στην εταιρεία. Η Google κυκλοφόρησε το μεγάλο γλωσσικό μοντέλο Bard και αναπτύσσει άλλα μοντέλα τεχνητής νοημοσύνης για εμπορική χρήση.
Η Accountable Tech και οι συνεργάτες της θέλουν οι εταιρείες που εργάζονται με AI να αποδείξουν ότι τα μεγάλα μοντέλα τεχνητής νοημοσύνης δεν θα προκαλέσουν συνολική βλάβη
Η ομάδα προτείνει μια μέθοδο παρόμοια με αυτή που χρησιμοποιείται στη φαρμακευτική βιομηχανία, όπου οι εταιρείες υποβάλλονται σε κανονισμούς ακόμη και πριν από την ανάπτυξη ενός μοντέλου AI στο κοινό και συνεχή παρακολούθηση μετά την εμπορική κυκλοφορία.
Οι μη κερδοσκοπικοί οργανισμοί δεν απαιτούν έναν ενιαίο κυβερνητικό ρυθμιστικό φορέα. Ωστόσο, ο Lehrich λέει ότι αυτό είναι ένα ερώτημα που πρέπει να αντιμετωπίσουν οι νομοθέτες για να δουν εάν η διάσπαση των κανόνων θα καταστήσει τους κανονισμούς πιο ευέλικτους ή θα καθυστερήσει την επιβολή.
Ο Lehrich λέει ότι είναι κατανοητό ότι οι μικρότερες εταιρείες ενδέχεται να αμφισβητήσουν το μέγεθος της ρύθμισης που επιδιώκουν, αλλά πιστεύει ότι υπάρχει περιθώριο προσαρμογής των πολιτικών στα μεγέθη των εταιρειών.
«Ρεαλιστικά, πρέπει να κάνουμε διαφοροποίηση μεταξύ των διαφορετικών σταδίων της εφοδιαστικής αλυσίδας τεχνητής νοημοσύνης και των απαιτήσεων σχεδιασμού που είναι κατάλληλες για κάθε φάση», λέει.
Προσθέτει ότι οι προγραμματιστές που χρησιμοποιούν μοντέλα ανοιχτού κώδικα θα πρέπει επίσης να βεβαιωθούν ότι αυτά ακολουθούν τις οδηγίες.


