Hitting the Books: Γιατί η τεχνητή νοημοσύνη χρειάζεται ρύθμιση και πώς μπορούμε να το κάνουμε

Η αναπτυσσόμενη βιομηχανία της τεχνητής νοημοσύνης έχει ξεπεράσει το «γρήγορο» τμήμα της ανάπτυξής της, ακριβώς στο κομμάτι όπου «σπάμε τα πράγματα» — όπως η κοινωνία! Από την κυκλοφορία του ChatGPT τον περασμένο Νοέμβριο, τα συστήματα παραγωγής τεχνητής νοημοσύνης έχουν κατακλύσει τον ψηφιακό κόσμο, βρίσκοντας χρήση σε οτιδήποτε, από την κωδικοποίηση μηχανών και τις βιομηχανικές εφαρμογές μέχρι το σχεδιασμό παιχνιδιών και την εικονική ψυχαγωγία. Επίσης, υιοθετήθηκε γρήγορα για παράνομους σκοπούς, όπως η κλιμάκωση λειτουργιών spam

και η δημιουργία

.

Αυτό είναι ένα τεχνολογικό τζίνι που δεν θα επιστρέψουμε ποτέ στο μπουκάλι του, οπότε καλύτερα να εργαστούμε για να το ρυθμίσουμε, υποστηρίζει ο συγγραφέας, επιχειρηματίας, επενδυτής και σύμβουλος

ς, Tom Kemp, με έδρα τη Silicon Valley, στο νέο του βιβλίο.


Περιέχει μεγάλη τεχνολογία: Πώς να προστατεύσουμε τα πολιτικά μας δικαιώματα, την οικονομία και τη δημοκρατία



.

Στο παρακάτω απόσπασμα, ο Kemp εξηγεί ποια μορφή μπορεί να έχει αυτός ο κανονισμός και τι θα σήμαινε η επιβολή του για τους καταναλωτές.


Fast Company Press


Απόσπασμα από




Περιέχει μεγάλη τεχνολογία: Πώς να προστατεύσουμε τα πολιτικά μας δικαιώματα, την οικονομία και τη δημοκρατία (IT Rev, 22 Αυγούστου 2023)




του Τομ Κεμπ.



Οδικός χάρτης που περιέχει AI

Η Πανδώρα στον ελληνικό μύθο έφερε ισχυρά δώρα αλλά και εξαπέλυσε πανίσχυρες πληγές και κακίες. Ομοίως και με την τεχνητή νοημοσύνη, πρέπει να αξιοποιήσουμε τα οφέλη της, αλλά να διατηρήσουμε τις πιθανές βλάβες που μπορεί να προκαλέσει η τεχνητή νοημοσύνη στους ανθρώπους μέσα στο παροιμιώδες κουτί της Πανδώρας.

Όταν ο Δρ. Timnit Gebru, ιδρυτής του Ινστιτούτου Ερευνών Κατανεμημένης Τεχνητής Νοημοσύνης (DAIR), ρωτήθηκε από τον

Νιου Γιορκ Ταιμς

σχετικά με τον τρόπο αντιμετώπισης της μεροληψίας AI,

απάντησε εν μέρει με αυτό

: «Πρέπει να έχουμε αρχές και πρότυπα, και κυβερνητικά όργανα και ανθρώπους που ψηφίζουν για πράγματα και αλγόριθμους να ελέγχονται, κάτι παρόμοιο με το FDA [

and Drug Administration]. Έτσι, για μένα, δεν είναι τόσο απλό όσο η δημιουργία ενός πιο διαφορετικού συνόλου δεδομένων και τα πράγματα διορθώνονται».

Εχει δίκιο. Πρώτα και κύρια, χρειαζόμαστε ρύθμιση. Το AI είναι ένα νέο παιχνίδι και χρειάζεται κανόνες και διαιτητές. Πρότεινε ότι χρειαζόμαστε ένα ισοδύναμο FDA για AI. Στην πραγματικότητα, τόσο το ΑΑΑ όσο και

ADPPA

Ζητήστε από την FTC να ενεργήσει σε αυτόν τον ρόλο, αλλά αντί να διεκπεραιώνονται οι υποβολές και η έγκριση φαρμάκων από την FDA, η Big Tech και άλλοι θα πρέπει να στείλουν τις αξιολογήσεις επιπτώσεων της τεχνητής νοημοσύνης στην FTC για συστήματα τεχνητής νοημοσύνης. Αυτές οι αξιολογήσεις θα αφορούν συστήματα τεχνητής νοημοσύνης σε τομείς υψηλού αντίκτυπου όπως η στέγαση, η απασχόληση και η πίστωση, βοηθώντας μας να αντιμετωπίσουμε καλύτερα την ψηφιακή κόκκινη γραμμή. Έτσι, αυτά τα νομοσχέδια

ενθάρρυνση της απαιτούμενης λογοδοσίας και διαφάνειας

για τους καταναλωτές.

Το φθινόπωρο του 2022, το Γραφείο Επιστημονικής και Τεχνολογικής Πολιτικής (OSTP) της κυβέρνησης

πρότεινε ακόμη και ένα «Σχέδιο για μια Διακήρυξη Δικαιωμάτων της ΤΝ». Οι προστασίες περιλαμβάνουν το δικαίωμα «να γνωρίζετε ότι χρησιμοποιείται ένα αυτοματοποιημένο σύστημα και να κατανοείτε πώς και γιατί συμβάλλει σε αποτελέσματα που σας επηρεάζουν». Αυτή είναι μια εξαιρετική ιδέα και θα μπορούσε να ενσωματωθεί στις αρμοδιότητες θέσπισης κανόνων που θα είχε η FTC εάν περνούσε η AAA ή η ADPPA. Το θέμα είναι ότι η τεχνητή νοημοσύνη δεν θα πρέπει να είναι ένα πλήρες μαύρο κουτί για τους καταναλωτές και οι καταναλωτές θα πρέπει να έχουν δικαιώματα να γνωρίζουν και να αντιτίθενται – όπως θα έπρεπε να έχουν με τη συλλογή και την επεξεργασία των προσωπικών τους δεδομένων. Επιπλέον, οι καταναλωτές θα πρέπει να έχουν δικαίωμα ιδιωτικής δράσης εάν τα συστήματα που βασίζονται σε τεχνητή νοημοσύνη τους βλάπτουν. Και οι ιστότοποι με σημαντική ποσότητα κειμένου και εικόνων που δημιουργούνται από την τεχνητή νοημοσύνη θα πρέπει να έχουν το ισοδύναμο μιας διατροφικής ετικέτας

ενημερώστε μας ποιο είναι το περιεχόμενο που δημιουργείται από την τεχνητή νοημοσύνη έναντι του ανθρώπινου παράγοντα

.

Χρειαζόμαστε επίσης πιστοποιήσεις AI. Για παράδειγμα, ο χρηματοοικονομικός κλάδος έχει διαπιστευμένους ορκωτούς λογιστές (CPA) και πιστοποιημένους οικονομικούς ελέγχους και καταστάσεις, επομένως θα πρέπει να έχουμε το αντίστοιχο για την τεχνητή νοημοσύνη. Και χρειαζόμαστε κώδικες συμπεριφοράς για τη χρήση της τεχνητής νοημοσύνης καθώς και βιομηχανικά πρότυπα. Για παράδειγμα, ο Διεθνής Οργανισμός Τυποποίησης (ISO) δημοσιεύει πρότυπα διαχείρισης ποιότητας που μπορούν να τηρούν οι οργανισμοί για την ασφάλεια στον κυβερνοχώρο, την ασφάλεια των τροφίμων κ.λπ. Ευτυχώς, μια ομάδα εργασίας με το ISO έχει αρχίσει να αναπτύσσει ένα νέο πρότυπο για τη διαχείριση κινδύνου AI. Και σε μια άλλη θετική εξέλιξη, το Εθνικό Ινστιτούτο Προτύπων και Τεχνολογίας (NIST)

κυκλοφόρησε το αρχικό της πλαίσιο για τη διαχείριση κινδύνου AI

τον Ιανουάριο του 2023.

Πρέπει να υπενθυμίσουμε στις εταιρείες να έχουν πιο ποικιλόμορφες και χωρίς αποκλεισμούς ομάδες σχεδιασμού που κατασκευάζουν AI. Όπως είπε η Olga Russakovsky, επίκουρη καθηγήτρια στο Τμήμα Επιστήμης Υπολογιστών στο Πανεπιστήμιο Πρίνστον: «Υπάρχουν πολλές ευκαιρίες για διαφοροποίηση αυτής της ομάδας [of people building AI systems]και καθώς η ποικιλομορφία μεγαλώνει, τα ίδια τα συστήματα τεχνητής νοημοσύνης θα γίνονται λιγότερο προκατειλημμένα».

Καθώς οι ρυθμιστικές αρχές και οι νομοθέτες εμβαθύνουν σε ζητήματα αντιμονοπωλιακής νομοθεσίας που αφορούν εταιρείες Big Tech, η τεχνητή νοημοσύνη δεν πρέπει να αγνοηθεί. Για να παραφράσουμε τον Wayne Gretzky, οι ρυθμιστικές αρχές πρέπει να κάνουν πατινάζ εκεί που πηγαίνει ο ξωτικός, όχι εκεί που ήταν. Η τεχνητή νοημοσύνη είναι το σημείο που πηγαίνει το αλαζονικό στην τεχνολογία. Ως εκ τούτου, οι εξαγορές εταιρειών τεχνητής νοημοσύνης από εταιρείες Big Tech θα πρέπει να εξετάζονται πιο προσεκτικά. Επιπλέον, η κυβέρνηση θα πρέπει να εξετάσει το ενδεχόμενο επιβολής της ανοικτής πνευματικής ιδιοκτησίας για την τεχνητή νοημοσύνη. Για παράδειγμα, αυτό θα μπορούσε να βασιστεί στο ομοσπονδιακό διάταγμα συναίνεσης του 1956 με την Bell που απαιτούσε από την Bell να αδειοδοτήσει όλες τις πατέντες της χωρίς δικαιώματα σε άλλες επιχειρήσεις. Αυτό οδήγησε σε απίστευτες καινοτομίες όπως το τρανζίστορ, το ηλιακό στοιχείο και το λέιζερ.

Δεν είναι υγιές για την οικονομία μας

να έχει το μέλλον της τεχνολογίας συγκεντρωμένο στα χέρια λίγων εταιρειών.

Τέλος, η κοινωνία και η οικονομία μας πρέπει να προετοιμαστούν καλύτερα για τον αντίκτυπο της τεχνητής νοημοσύνης στον εκτοπισμό των εργαζομένων μέσω της αυτοματοποίησης. Ναι, πρέπει να προετοιμάσουμε τους πολίτες μας με καλύτερη εκπαίδευση και κατάρτιση για νέες θέσεις εργασίας σε έναν κόσμο τεχνητής νοημοσύνης. Αλλά πρέπει να είμαστε έξυπνοι σχετικά με αυτό, καθώς δεν μπορούμε να πούμε ας επανεκπαιδεύσουμε όλους να είναι προγραμματιστές λογισμικού, επειδή μόνο ορισμένοι έχουν αυτή την ικανότητα ή το ενδιαφέρον. Σημειώστε επίσης ότι η τεχνητή νοημοσύνη κατασκευάζεται ολοένα και περισσότερο για να αυτοματοποιήσει την ανάπτυξη προγραμμάτων λογισμικού, επομένως ακόμη και το να γνωρίζουμε ποιες δεξιότητες λογισμικού πρέπει να διδάσκονται σε έναν κόσμο τεχνητής νοημοσύνης είναι κρίσιμο. Όπως τόνισε ο οικονομολόγος Joseph E. Stiglitz, είχαμε προβλήματα διαχείρισης μικρότερης κλίμακας αλλαγών στην τεχνολογία και την παγκοσμιοποίηση που οδήγησαν σε πόλωση και αποδυνάμωση της δημοκρατίας μας, και οι αλλαγές της τεχνητής νοημοσύνης είναι πιο βαθιές. Επομένως, πρέπει να προετοιμαστούμε για αυτό και να διασφαλίσουμε ότι η τεχνητή νοημοσύνη είναι καθαρά θετική για την κοινωνία.

Δεδομένου ότι η Big Tech ηγείται της τεχνητής νοημοσύνης, η διασφάλιση των θετικών επιπτώσεών της θα πρέπει να ξεκινήσει από αυτές. Η τεχνητή νοημοσύνη είναι απίστευτα ισχυρή και η Big Tech είναι «all-in» με την τεχνητή νοημοσύνη, αλλά η τεχνητή νοημοσύνη είναι γεμάτη κινδύνους εάν εισαχθεί μεροληψία ή εάν έχει κατασκευαστεί για εκμετάλλευση. Και όπως τεκμηρίωσα, η Big Tech είχε προβλήματα με τη χρήση του AI. Αυτό σημαίνει ότι όχι μόνο το βάθος και το εύρος της συλλογής των ευαίσθητων δεδομένων μας αποτελούν απειλή, αλλά και ο τρόπος με τον οποίο η Big Tech χρησιμοποιεί την τεχνητή νοημοσύνη για την επεξεργασία αυτών των δεδομένων και τη λήψη αυτοματοποιημένων αποφάσεων είναι επίσης απειλητικός.

Έτσι, με τον ίδιο τρόπο που πρέπει να περιορίσουμε την ψηφιακή επιτήρηση, πρέπει επίσης να διασφαλίσουμε ότι η Big Tech δεν ανοίγει το κουτί της Πανδώρας με AI.


Όλα τα προϊόντα που προτείνει η Engadget επιλέγονται από τη συντακτική μας ομάδα, ανεξάρτητα από τη μητρική μας εταιρεία. Ορισμένες από τις ιστορίες μας περιλαμβάνουν συνδέσμους συνεργατών. Εάν αγοράσετε κάτι μέσω ενός από αυτούς τους συνδέσμους, ενδέχεται να κερδίσουμε μια προμήθεια θυγατρικών. Όλες οι τιμές είναι σωστές τη στιγμή της δημοσίευσης.



Engadget.com


Leave A Reply



Cancel Reply

Your email address will not be published.