Οι Γενικοί Εισαγγελείς και από τις 50 πολιτείες προτρέπουν το Κογκρέσο να βοηθήσει στην καταπολέμηση του CSAM που δημιουργείται από την τεχνητή νοημοσύνη
Οι γενικοί εισαγγελείς και από
τι
ς 50 πολιτείες απαγόρευσαν από κοινού και έστειλαν ανοιχτή επιστολή στο Κογκρέσο, ζητώντας αυξημένα προστατευτικά μέτρα έναντι των εικόνων σεξουαλικής κακοποίησης παιδιών που έχουν ενισχυθεί με τεχνητή νοημοσύνη.
όπως αναφέρθηκε αρχικά από
AP.
Η επιστολή καλεί τους νομοθέτες «να συγκροτήσουν μια επιτροπή εμπειρογνωμόνων για να μελετήσουν τα μέσα και τις μεθόδους της τεχνητής νοημοσύνης που μπορούν να χρησιμοποιηθούν για την ειδική εκμετάλλευση των παιδιών».
Η επιστολή που εστάλη στους Ρεπουμπλικάνους και Δημοκρατικούς ηγέτες της Βουλής και της Γερουσίας προτρέπει επίσης τους πολιτικούς να επεκτείνουν τους υφιστάμενους περιορισμούς στο υλικό σεξουαλικής κακοποίησης παιδιών για να καλύπτουν ειδικά εικόνες και βίντεο που δημιουργούνται από την τεχνητή νοημοσύνη. Αυτή η τεχνολογία είναι εξαιρετικά νέα και, ως εκ τούτου, δεν υπάρχει τίποτα στα βιβλία που να τοποθετεί ρητά τις εικόνες που δημιουργούνται από AI στην ίδια κατηγορία με άλλους τύπους υλικού σεξουαλικής κακοποίησης παιδιών.
«Είμαστε σε έναν αγώνα αγώνα ενάντια στο χρόνο για να προστατέψουμε τα παιδιά της χώρας μας από τους κινδύνους της τεχνητής νοημοσύνης», έγραψαν οι εισαγγελείς στην επιστολή. «Πράγματι, τα παροιμιώδη τείχη της πόλης έχουν ήδη παραβιαστεί. Τώρα είναι η ώρα να δράσουμε».
Η χρήση συσκευών δημιουργίας εικόνων όπως το Dall-E και το Midjourney για τη δημιουργία υλικού σεξουαλικής κακοποίησης παιδιών δεν αποτελεί πρόβλημα, ωστόσο, καθώς το
λογισμικό
έχει στη θέση του προστατευτικά κιγκλιδώματα που δεν επιτρέπουν κάτι τέτοιο. Ωστόσο, αυτοί οι εισαγγελείς κοιτάζουν το
μέλλον
όταν αρχίσουν να εμφανίζονται παντού εκδόσεις ανοιχτού κώδικα του λογισμικού, η καθεμία με τα δικά της προστατευτικά κιγκλιδώματα ή την έλλειψη αυτών. Ακόμη και ο Διευθύνων Σύμβουλος του OpenAI, Sam Altman, δήλωσε ότι τα εργαλεία τεχνητής νοημοσύνης θα ωφεληθούν από την κρατική παρέμβαση για τον μετριασμό του κινδύνου, αν και δεν ανέφερε την κακοποίηση παιδιών ως πιθανό μειονέκτημα της τεχνολογίας.
Η κυβέρνηση τείνει να κινείται αργά όσον αφορά την τεχνολογία,
για διάφορους λόγους,
όπως χρειάστηκε το Κογκρέσο αρκετά χρόνια πριν λάβει
την απειλή των διαδικτυακών κακοποιών παιδιών
σοβαρά πίσω στην εποχή των αιθουσών συνομιλίας της AOL και παρόμοια. Για τον σκοπό αυτό, δεν υπάρχει άμεση ένδειξη ότι το Κογκρέσο θέλει να δημιουργήσει νομοθεσία για την τεχνητή νοημοσύνη που να απαγορεύει απολύτως στις γεννήτριες να δημιουργούν αυτού του είδους τις αποκρουστικές εικόνες. Ακόμη και της Ευρωπαϊκής Ένωσης
σαρωτικός νόμος περί τεχνητής νοημοσύνης
δεν αναφέρει συγκεκριμένα κανέναν κίνδυνο για τα παιδιά.
Ο Γενικός Εισαγγελέας της Νότιας Καρολίνας Άλαν Γουίλσον οργάνωσε την εκστρατεία συγγραφής επιστολών και ενθάρρυνε τους συναδέλφους να ψάξουν τους νόμους της πολιτείας για να μάθουν εάν «οι νόμοι συμβαδίζουν με την
καινοτομία
αυτής της νέας τεχνολογίας».
Ο Wilson προειδοποιεί για
περιεχόμενο
deepfake που περιλαμβάνει ένα πραγματικό παιδί που προέρχεται από μια φωτογραφία ή ένα βίντεο. Αυτό δεν θα ήταν κακοποίηση παιδιών με τη συμβατική έννοια, λέει ο Wilson, αλλά θα απεικόνιζε την κακοποίηση και θα «δυσφημούσε» και θα «εκμεταλλευόταν» το παιδί από την αρχική εικόνα. Συνεχίζει λέγοντας ότι «οι νόμοι μας μπορεί να μην αντιμετωπίζουν την εικονική φύση» αυτού του είδους της κατάστασης.
Η τεχνολογία θα μπορούσε επίσης να χρησιμοποιηθεί για τη δημιουργία πλασματικών παιδιών, που συλλέγονται από μια βιβλιοθήκη δεδομένων, για την παραγωγή υλικού σεξουαλικής κακοποίησης. Ο Wilson λέει ότι αυτό θα δημιουργήσει μια «ζήτηση για τη βιομηχανία που εκμεταλλεύεται παιδιά» ως επιχείρημα ενάντια στην ιδέα ότι στην πραγματικότητα δεν θα έβλαπτε κανέναν.
Αν και η ιδέα της βαθιάς ψευδούς σεξουαλικής κακοποίησης παιδιών είναι μάλλον νέα, η βιομηχανία της τεχνολογίας έχει πλήρη επίγνωση του deepfake πορνογραφικού περιεχομένου, λαμβάνοντας μέτρα για να το αποτρέψει. Τον Φεβρουάριο, οι Meta, OnlyFans και Pornhub άρχισαν να χρησιμοποιούν ένα
διαδικτυακό εργαλείο που ονομάζεται Take It Down
που επιτρέπει στους εφήβους να αναφέρουν ακατάλληλες εικόνες και βίντεο του εαυτού τους από το Διαδίκτυο. Αυτό το εργαλείο χρησιμοποιείται για κανονικές εικόνες και περιεχόμενο που δημιουργείται από AI.
