Η ομάδα καταναλωτών καλεί την ΕΕ να διερευνήσει επειγόντως «τους κινδύνους της γενετικής τεχνητής νοημοσύνης»
Οι ευρωπαϊκές ρυθμιστικές αρχές βρίσκονται σε ένα σταυροδρόμι σχετικά με τον τρόπο με τον οποίο η τεχνητή νοημοσύνη θα ρυθμιστεί — και τελικά θα χρησιμοποιηθεί εμπορικά και μη — στην περιοχή, και σήμερα η μεγαλύτερη ομάδα καταναλωτών της ΕΕ, η BEUC,
ζυγίστηκε με τη δική της θέση
: σταματήστε να σέρνετε τα πόδια σας και «ξεκινήστε επείγουσες έρευνες για τους κινδύνους της γενετικής τεχνητής νοημοσύνης» τώρα, ανέφερε.
«Η γενετική τεχνητή νοημοσύνη όπως το
ChatGPT
έχει ανοίξει κάθε είδους δυνατότητες για τους καταναλωτές, αλλά υπάρχουν σοβαρές ανησυχίες για το πώς αυτά τα συστήματα μπορεί να εξαπατήσουν, να χειραγωγήσουν και να βλάψουν τους ανθρώπους. Μπορούν επίσης να χρησιμοποιηθούν για τη διάδοση παραπληροφόρησης, τη διαιώνιση υπαρχουσών προκαταλήψεων που ενισχύουν τις διακρίσεις ή να χρησιμοποιηθούν για απάτη», δήλωσε η Ursula Pachl, Αναπληρώτρια Γενική Διευθύντρια του BEUC, σε δήλωση. «Καλούμε τις αρχές ασφάλειας, δεδομένων και προστασίας των καταναλωτών να ξεκινήσουν έρευνες τώρα και να μην περιμένουν άπραγοι για κάθε είδους βλάβη των καταναλωτών προτού αναλάβουν δράση. Αυτοί οι νόμοι ισχύουν για όλα τα προϊόντα και τις υπηρεσίες, είτε τροφοδοτούνται με τεχνητή νοημοσύνη είτε όχι και οι αρχές πρέπει να τους επιβάλλουν».
Το BEUC, το οποίο εκπροσωπεί οργανώσεις καταναλωτών σε 13 χώρες της ΕΕ, απηύθυνε την έκκληση να συμπέσει με
έκθεση σήμερα
από ένα από τα μέλη του, το Forbrukerrådet στη Νορβηγία.
Αυτή η νορβηγική έκθεση είναι ξεκάθαρη στη θέση της: η τεχνητή νοημοσύνη προκαλεί βλάβες στους καταναλωτές (ο τίτλος της έκθεσης τα λέει όλα: «Ghost in the Machine: αντιμετώπιση των βλαβών των καταναλωτών της γενετικής τεχνητής νοημοσύνης») και θέτει πολλά προβληματικά ζητήματα.
Ενώ ορισμένοι τεχνολόγοι κρούουν τον κώδωνα του κινδύνου γύρω από την τεχνητή νοημοσύνη ως όργανο εξαφάνισης του ανθρώπου, η συζήτηση στην Ευρώπη αφορούσε περισσότερο τις επιπτώσεις της τεχνητής νοημοσύνης σε τομείς όπως η δίκαιη πρόσβαση στις υπηρεσίες, η παραπληροφόρηση και ο ανταγωνισμός.
Υπογραμμίζει, για παράδειγμα, πώς «ορισμένοι προγραμματιστές τεχνητής νοημοσύνης, συμπεριλαμβανομένων εταιρειών μεγάλης τεχνολογίας» έχουν αποκλείσει τα συστήματα από εξωτερικό έλεγχο, καθιστώντας δύσκολο να δούμε πώς συλλέγονται δεδομένα ή λειτουργούν οι αλγόριθμοι. το γεγονός ότι ορισμένα συστήματα παράγουν εσφαλμένες πληροφορίες τόσο ευγενικά όσο και σωστά αποτελέσματα, με τους χρήστες συχνά να μην είναι τόσο σοφότεροι. τεχνητή νοημοσύνη που έχει δημιουργηθεί για να παραπλανά ή να χειραγωγεί τους χρήστες. το ζήτημα μεροληψίας που βασίζεται στις πληροφορίες που τροφοδοτούνται σε ένα συγκεκριμένο μοντέλο τεχνητής νοημοσύνης· και την ασφάλεια, συγκεκριμένα πώς η τεχνητή νοημοσύνη θα μπορούσε να οπλιστεί για να εξαπατήσει ανθρώπους ή να παραβιάσει συστήματα.
Αν και η κυκλοφορία του ChatGPT του
OpenAI
έχει σίγουρα τοποθετήσει την τεχνητή νοημοσύνη και τις δυνατότητες της απήχησής της στη συνείδηση του κοινού, η εστίαση της ΕΕ στον αντίκτυπο της τεχνητής νοημοσύνης δεν είναι νέα. Δήλωσε ότι συζητούσε θέματα «κινδύνου» το 2020, αν και αυτές οι αρχικές προσπάθειες είχαν τεθεί ως βάση για την αύξηση της «εμπιστοσύνης» στην τεχνολογία.
Μέχρι το 2021, μιλούσε πιο συγκεκριμένα για εφαρμογές τεχνητής νοημοσύνης «υψηλού κινδύνου» και μερικές
300 οργανώσεις ενώθηκαν
να υποστηρίξει την πλήρη απαγόρευση ορισμένων μορφών τεχνητής νοημοσύνης.
Τα συναισθήματα έχουν γίνει πιο έντονα με την πάροδο του χρόνου, καθώς η ΕΕ εργάζεται μέσω της νομοθεσίας της σε όλη την περιοχή. Την τελευταία εβδομάδα, μίλησε η επικεφαλής ανταγωνισμού της ΕΕ, Margarethe Vestager
συγκεκριμένα για το πώς η τεχνητή νοημοσύνη ενέχει κινδύνους μεροληψίας
όταν εφαρμόζεται σε κρίσιμους τομείς όπως χρηματοοικονομικές υπηρεσίες όπως στεγαστικά δάνεια και άλλες αιτήσεις δανείου.
Τα σχόλιά της ήρθαν αμέσως μετά την ΕΕ
ενέκρινε τον επίσημο νόμο περί τεχνητής νοημοσύνης
, το οποίο χωρίζει προσωρινά τις εφαρμογές τεχνητής νοημοσύνης σε κατηγορίες όπως απαράδεκτος, υψηλός και περιορισμένος κίνδυνος. Αυτός ο νόμος, όταν εφαρμοστεί, θα είναι η πρώτη προσπάθεια στον κόσμο να προσπαθήσει να κωδικοποιήσει κάποιου είδους κατανόηση και νομική επιβολή σχετικά με τον τρόπο με τον οποίο η τεχνητή νοημοσύνη χρησιμοποιείται εμπορικά και μη.
Το επόμενο βήμα στη διαδικασία είναι να συνεργαστεί η ΕΕ με μεμονωμένες χώρες της ΕΕ για να καταλήξει σε ποια τελική μορφή θα πάρει ο νόμος — συγκεκριμένα για να προσδιορίσει τι (και ποιοι) θα χωρούσε στις κατηγορίες του και τι όχι. Το ερώτημα θα είναι πόσο εύκολα συμφωνούν διαφορετικές χώρες. Η ΕΕ θέλει να ολοκληρώσει αυτή τη διαδικασία μέχρι το τέλος αυτού του έτους, ανέφερε.
«Είναι σημαντικό η ΕΕ να καταστήσει αυτόν τον νόμο όσο το δυνατόν πιο στεγανό για την προστασία των καταναλωτών», είπε η Pachl στη δήλωσή της. «Όλα τα συστήματα τεχνητής νοημοσύνης, συμπεριλαμβανομένης της γενετικής τεχνητής νοημοσύνης, χρειάζονται δημόσιο έλεγχο και οι δημόσιες αρχές πρέπει να επαναφέρουν τον έλεγχο τους. Οι νομοθέτες πρέπει να απαιτήσουν ότι η παραγωγή από οποιοδήποτε σύστημα τεχνητής νοημοσύνης που δημιουργείται είναι ασφαλές, δίκαιο και διαφανές για τους καταναλωτές».
Το BEUC είναι γνωστό για την παρουσία του σε κρίσιμες στιγμές και για την πραγματοποίηση κλήσεων με επιρροή που αντικατοπτρίζουν την κατεύθυνση που τελικά παίρνουν οι ρυθμιστικές αρχές. Ήταν μια πρώιμη φωνή, για παράδειγμα, κατά της
Google
στις μακροπρόθεσμες αντιμονοπωλιακές έρευνες εναντίον του γίγαντα της αναζήτησης και των κινητών τηλεφώνων, που ακούγονταν χρόνια πριν αναληφθούν μέτρα εναντίον της εταιρείας. Αυτό το παράδειγμα, ωστόσο, υπογραμμίζει κάτι άλλο: η συζήτηση για την τεχνητή νοημοσύνη και τις επιπτώσεις της, και ο ρόλος που μπορεί να διαδραματίσει η ρύθμιση σε αυτό, πιθανότατα θα είναι μακρά.


