Ο νόμος της ΕΕ για την τεχνητή νοημοσύνη επιτρέπει στις κυβερνήσεις την επιτήρηση της τεχνητής νοημοσύνης να τρέχει άγρια
Από κάθε άποψη, ο νόμος της Ευρωπαϊκής Ένωσης για την τεχνητή νοημοσύνη φαίνεται σαν κάτι που θα έκανε χαρούμενους τους τεχνικούς ηθικούς. ο
ορόσημο νόμο για την τεχνητή νοημοσύνη
, που γνώρισε μια τεράστια νομοθετική νίκη αυτή την εβδομάδα, επιδιώκει να θεσπίσει ένα ευρύ ρυθμιστικό πλαίσιο που θα αντιμετωπίσει τις βλάβες που προκαλεί η νέα τεχνολογία. Στην τρέχουσα μορφή του, ο νόμος θα έφτανε σε ορισμένα μήκη για να καταστήσει την τεχνητή νοημοσύνη πιο διαφανή, χωρίς αποκλεισμούς και φιλική προς τον καταναλωτή στις χώρες όπου ισχύει. Τι δεν αρέσει, σωστά;
Μεταξύ άλλων, ο νόμος περί τεχνητής νοημοσύνης θα απαγόρευε αμφιλεγόμενες χρήσεις της τεχνητής νοημοσύνης, αυτά που θεωρεί συστήματα «υψηλού κινδύνου». Αυτό περιλαμβάνει πράγματα όπως συστήματα αναγνώρισης συναισθημάτων στην εργασία και στα σχολεία, καθώς και το είδος των συστημάτων κοινωνικής βαθμολόγησης που έχουν γίνει τόσο διαδεδομένα στην Κίνα. Ταυτόχρονα, ο νόμος έχει επίσης εγγυήσεις γύρω του που θα ανάγκαζαν τις εταιρείες που παράγουν περιεχόμενο πολυμέσων με τεχνητή νοημοσύνη να αποκαλύψουν αυτή τη χρήση στους καταναλωτές.
Τη Δευτέρα, οι ρυθμιστικές αρχές από τους τρεις κλάδους του μπλοκ έφτασαν
μια προσωρινή συμφωνία για το νόμο
που σημαίνει ότι, ελλείψει καλύτερης φράσης, είναι τελειωμένη υπόθεση.
Και όμως, παρά ορισμένες νίκες πολιτικής, υπάρχουν σημαντικά τυφλά σημεία στον νέο νόμο—αυτά που προκαλούν τις ομάδες της κοινωνίας των πολιτών περισσότερο από λίγο ανησυχητικές.
Η Damini Satija, Επικεφαλής του Εργαστηρίου Αλγοριθμικής Λογοδοσίας της Διεθνούς Αμνηστίας, είπε ότι η οργάνωσή της και άλλοι παρακολουθούσαν προσεκτικά την ανάπτυξη του νόμου για την τεχνητή νοημοσύνη τα τελευταία χρόνια και ότι, ενώ υπάρχουν πολλά να γιορτάσουμε στον νέο νόμο, δεν είναι αρκετά.
Πράγματι, το ίδιο το Ευρωπαϊκό Κοινοβούλιο
δελτίο τύπου
σχετικά με τον νόμο ορόσημο παραδέχεται ότι «στενές εξαιρέσεις [exist] για τη χρήση βιομετρικών συστημάτων ταυτοποίησης (RBI)»—τεχνολογία αστυνομικής μαζικής παρακολούθησης, με άλλα λόγια—«σε δημόσια προσβάσιμους χώρους για σκοπούς επιβολής του νόμου, υπό την προϋπόθεση προηγούμενης δικαστικής άδειας και για αυστηρά καθορισμένους καταλόγους εγκλημάτων». Ως μέρος αυτής της εξαίρεσης, ο νόμος επιτρέπει στην αστυνομία να χρησιμοποιεί
ζωντανή τεχνολογία αναγνώρισης προσώπου
—ένα αμφιλεγόμενο εργαλείο που υπήρξε
που ονομάστηκε «οργουελιανός»
για την ικανότητά του να παρακολουθεί και να καταλογίζει μέλη του κοινού—σε περιπτώσεις όπου χρησιμοποιείται για την πρόληψη «συγκεκριμένης και παρούσας τρομοκρατικής απειλής» ή για την ταυτοποίηση ή την εύρεση κάποιου ύποπτου για έγκλημα.
Όπως θα περίμενε κανείς, για ομάδες όπως η Αμνηστία, αυτό φαίνεται σαν ένα αρκετά μεγάλο τυφλό σημείο. Από την οπτική γωνία των κριτικών, δεν υπάρχει καμία ένδειξη για το πώς η χρήση αυτών των τεχνολογιών από τις αρχές επιβολής του νόμου θα μπορούσε να αυξηθεί στο μέλλον. «Οι εξαιρέσεις για την εθνική ασφάλεια—όπως γνωρίζουμε από την ιστορία—είναι συχνά απλώς ένας τρόπος για τις κυβερνήσεις να εφαρμόσουν αρκετά εκτεταμένα συστήματα επιτήρησης», είπε ο Satija.
Ο Satija σημειώνει επίσης ότι η νομοθεσία της ΕΕ έχει αποτύχει σε έναν άλλο κρίσιμο τομέα. Ενώ ο νόμος απαγορεύει συγκεκριμένα ορισμένους τύπους τεχνητής νοημοσύνης «υψηλού κινδύνου», αυτό που δεν κάνει είναι να απαγορεύσει την εξαγωγή αυτού του AI σε άλλα έθνη. Με άλλα λόγια, ενώ οι περισσότεροι Ευρωπαίοι δεν θα υπόκεινται σε ορισμένα, αμφιλεγόμενα προϊόντα επιτήρησης, οι εταιρείες στην ΕΕ θα μπορούν να πωλούν αυτά τα εργαλεία σε άλλες χώρες εκτός του μπλοκ. Αμνηστία
έχει επισημάνει συγκεκριμένα
στις πωλήσεις προϊόντων επιτήρησης από εταιρείες της ΕΕ στην κυβέρνηση της Κίνας για την επιτήρηση του πληθυσμού των Ουιγούρων της, καθώς και στο Ισραήλ για να διατηρήσει την κυριαρχία των Παλαιστινίων.
Τις τελευταίες εβδομάδες, ο σύμβουλος υπεράσπισης της Αμνηστίας για την τεχνητή νοημοσύνη, Mher Hakobyan, απελευθέρωσε αρκετά
δηλώσεις
καταδικάζοντας πτυχές του νόμου. Αναφερόμενος στις εξαιρέσεις της επιβολής του νόμου, ο Hakobyan είπε ότι το μπλοκ έδωσε το πράσινο φως για τη «δυστοπική ψηφιακή παρακολούθηση στα 27 κράτη μέλη της ΕΕ, θέτοντας ένα καταστροφικό προηγούμενο παγκοσμίως όσον αφορά τη ρύθμιση της τεχνητής νοημοσύνης (AI). Η στάση του νόμου απέναντι στις εξαγωγές, από την άλλη πλευρά, κατέδειξε «μια κατάφωρη διπλή στάθμη εκ μέρους των νομοθετών της ΕΕ, οι οποίοι από τη μία παρουσιάζουν την ΕΕ ως παγκόσμιο ηγέτη στην προώθηση της «ασφαλούς, αξιόπιστης και ηθικής Τεχνητής Νοημοσύνης» και Από την άλλη πλευρά, αρνούνται να σταματήσουν τις εταιρείες της ΕΕ να πωλούν συστήματα τεχνητής νοημοσύνης που παραβιάζουν τα δικαιώματα στον υπόλοιπο κόσμο».
αυτός είπε
.
Άλλες ομάδες έχουν εκφράσει παρόμοια κριτική. Ο Christoph Schmon, Διευθυντής Διεθνούς Πολιτικής για το Electronic Frontier Foundation, είπε ότι ενώ μέρη του νέου νόμου φαίνονται «υποσχόμενα», η προσέγγισή του στις τεχνολογίες επιβολής του νόμου ήταν ανησυχητική.
«Η τελική έκδοση της συμφωνίας είναι ακόμα σε ροή, αλλά είναι προφανές ότι παρά την πολλά υποσχόμενη γλώσσα για την προστασία των θεμελιωδών δικαιωμάτων, οι νέοι κανονισμοί για τη βιομετρική επιτήρηση αφήνουν πολλά ερωτήματα ανοιχτά», είπε ο Schmon, σε ένα email. «Πάντα λέγαμε ότι η αναγνώριση προσώπου από τις κυβερνήσεις αντιπροσωπεύει εγγενή απειλή για την ιδιωτική
ζωή
του ατόμου, την ελεύθερη έκφραση και την κοινωνική δικαιοσύνη», πρόσθεσε. «Οι εξαιρέσεις της επιβολής του νόμου στη συμφωνία για την τεχνητή νοημοσύνη φαίνεται να κάνουν την
απαγόρευση
της αναγνώρισης προσώπου στο κοινό και τους περιορισμούς στην προγνωστική αστυνόμευση να μοιάζουν με ελβετικό τυρί. Τούτου λεχθέντος, πολλά θα εξαρτηθούν από τις τεχνικές λεπτομέρειες των συνεχιζόμενων διαπραγματεύσεων και τον τρόπο με τον οποίο αυτοί οι κανόνες στη συνέχεια εφαρμόζονται στην πράξη».
Οι λεπτομέρειες πολιτικής του νόμου περί τεχνητής νοημοσύνης εξακολουθούν να ρυθμίζονται με ακρίβεια και η περίπλοκη νομοθετική διαδικασία της ΕΕ σημαίνει ότι εξακολουθούν να υπάρχουν ευκαιρίες για τα ψιλά γράμματα να αλλάξουν, ελαφρώς. “Υπάρχει ακόμη αρκετή δουλειά που πρέπει να γίνει για να οριστικοποιηθεί το ακριβές κείμενο και ο διάβολος θα είναι στις λεπτομέρειες”, είπε ο Satija. Η τελική έκδοση του νομοσχεδίου πιθανότατα δεν θα οριστικοποιηθεί μέχρι κάποια στιγμή τον Ιανουάριο, είπε.
Για όσους το παρακολουθούν,
τη συζήτηση για την «ασφάλεια της τεχνητής νοημοσύνης».
μπορεί να είναι περίπλοκο και, μερικές φορές, αρκετά ενοχλητικό. Υπήρξε μια μεγάλη τάση από την πλευρά των ηγετών να συζητούν
ad nauseam
σχετικά με τους κινδύνους που εγκυμονεί η τεχνητή νοημοσύνη ενώ δεν κάνει πολλά πράγματα. Αν και η ΕΕ πρέπει να επαινεθεί για την εκπόνηση ενός νόμου που αντιμετωπίζει πολλές από τις προ
κλήσεις
που θέτει η τεχνητή νοημοσύνη, φαίνεται επίσης κάπως ειρωνικό το γεγονός ότι επέλεξαν να αγνοήσουν τις μορφές του που φαίνονται πιο πιθανό να βγουν εκτός ελέγχου και πληγώσει ανθρώπους. Σε τελική ανάλυση, δεν γίνεται πολύ πιο δυστοπικό από την αστυνομική επιτήρηση που τροφοδοτείται από AI. Εάν οι άνθρωποι είναι τόσο σοβαροί σχετικά με την «ασφάλεια» της τεχνητής νοημοσύνης, γιατί αυτές οι περιπτώσεις χρήσης δεν αποτελούν πρώτη προτεραιότητα για τις ρυθμιστικές αρχές;
:
Εικόνες Tada
(
Shutterstock
)
Ερώτηση της ημέρας: Ποια είναι η δουλειά με το “multi-modal”;
Νωρίτερα αυτή την εβδομάδα, οι άνθρωποι άρχισαν να λένε ότι το τελευταίο μοντέλο μεγάλης γλώσσας του OpenAI –
GPT-4
.5 – είχε διαρρεύσει στο διαδίκτυο. Daniel Nyugen,
που δημοσίευσε στο Χ
σχετικά με την υποτιθέμενη διαρροή, περιέγραψε το LLM ως «πολυτροπικές δυνατότητες σε γλώσσα, ήχο, όραμα, βίντεο και 3D, παράλληλα με πολύπλοκη συλλογιστική και διατροπική κατανόηση». Ενώ φαίνεται σαν αυτή η διαρροή
είναι στην πραγματικότητα ψεύτικο
, ένα πράγμα που είναι πραγματικό είναι ότι ο κλάδος της τεχνητής νοημοσύνης έχει επί του παρόντος εμμονή με όλο αυτό το θέμα της «πολυτροπικότητας». Τα πολυτροπικά συστήματα, από όσο καταλαβαίνω, είναι αυτά στα οποία ένα σύστημα τεχνητής νοημοσύνης είναι κατασκευασμένο χρησιμοποιώντας μια ποικιλία διαφορετικών τύπων δεδομένων (όπως κείμενο, εικόνες, ήχος και βίντεο), επιτρέποντας στο σύστημα να εμφανίζει «ανθρώπινα σαν» ικανότητες. OpenAI’s
πρόσφατες ενσωματώσεις του ChatGPT (στο οποίο μπορεί πλέον να “μιλάει”, “ακούει” και “βλέπει” πράγματα)
είναι καλά παραδείγματα πολυτροπικότητας. Θεωρείται επί του παρόντος ως ένα σκαλοπάτι προς την AGI – την τεχνητή γενική νοημοσύνη – που είναι ο πολυπόθητος στόχος της ανάπτυξης της AI.
Περισσότερα πρωτοσέλιδα αυτή την εβδομάδα
-
Ο Διευθύνων Σύμβουλος του Sports Illustrated είναι έξω από το σκάνδαλο «δημοσιογράφων» της τεχνητής νοημοσύνης.
Ο Ross Levinsohn, ο πλέον πρώην επικεφαλής στέλεχος του Sports Illustrated,
έχει απολυθεί
από τη μητρική εταιρεία της έκδοσης, τον Όμιλο Arena, μετά την έξοδο
δημοσίευσε πολλές ιστορίες που δημιουργήθηκαν από AI
χρησιμοποιώντας πλαστές γραμμές. Το σκάνδαλο είναι μόνο το πιο πρόσφατο σε μια σειρά παρόμοιων περιστατικών όπου τα ειδησεογραφικά πρακτορεία λαμβάνουν την εξαιρετικά ανήθικη απόφαση να προσπαθήσουν να εισβάλουν κρυφά περιεχόμενο που δημιουργείται από AI στους ιστοτόπους τους, ελπίζοντας ότι κανείς δεν θα το προσέξει. -
Η Microsoft θέλει να προχωρήσει σε πυρηνική
ενέργεια
στο AI.
Η Microsoft, η μέτρια εταιρεία λογισμικού που ιδρύθηκε από τον Μπιλ Γκέιτς, τα κατάφερε
προσκολλάται σε ένα ανερχόμενο αστέρι στον κλάδο της τεχνητής νοημοσύνης (OpenAI)
, αγοράζοντας έτσι τον εαυτό του για άλλα πολλά χρόνια πολιτιστικής σημασίας. Τώρα, για να τροφοδοτήσει τις μαζικές λειτουργίες τεχνητής νοημοσύνης που ξεκινούν οι δύο επιχειρήσεις, η Microsoft ελπίζει να στραφεί σε μια αμφιλεγόμενη πηγή ενέργειας: την πυρηνική ενέργεια. Ήταν
προηγουμένως αναφερθεί
ότι η Microsoft ήταν στο κυνήγι ενός ατόμου που θα «ηγεί πρωτοβουλίες έργων για όλες τις πτυχές της υποδομής πυρηνικής ενέργειας για την παγκόσμια ανάπτυξη». Τώρα, η Wall Street Journal
Αναφορές
ότι η εταιρεία επιχειρεί να χρησιμοποιήσει την τεχνητή νοημοσύνη για την πλοήγηση στην περίπλοκη πυρηνική κανονιστική διαδικασία. Είναι γνωστό ότι αυτή η διαδικασία διαρκεί χρόνια, επομένως η Microsoft πιστεύει ότι η αυτοματοποίησή της μπορεί να βοηθήσει. -
Ο Πάπας ανησυχεί αρκετά για μια δικτατορία της τεχνητής νοημοσύνης.
Ο Πάπας Φραγκίσκος συλλογίζεται τους κινδύνους του σύγχρονου κόσμου και αυτή την εβδομάδα μίλησε περίπου
την απειλή μιας τεχνοκρατίας που τροφοδοτείται από τεχνητή νοημοσύνη
. Ο θρησκευτικός ηγέτης ζήτησε μια δεσμευτική παγκόσμια συνθήκη που θα μπορούσε να χρησιμοποιηθεί για να σταματήσει τα «τεχνοκρατικά συστήματα» να αποτελούν «απειλή για την επιβίωσή μας». Σκληρά λόγια. υποθέτω
εκείνο το deepfake
στην οποία φαινόταν ναρκωτικά καθώς η κόλαση τον πήρε πραγματικά.
VIA:
gizmodo.com

