Το ChatGPT αξιοποιείται εύκολα για πολιτικά μηνύματα παρά τις πολιτικές του OpenAI
Τον Μάρτιο, το
OpenAI
προσπάθησε να αποτρέψει τις ανησυχίες ότι το εξαιρετικά δημοφιλές, αν και επιρρεπές σε παραισθήσεις, ChatGPT τεχνητής νοημοσύνης που δημιουργείται θα μπορούσε να χρησιμοποιηθεί για να ενισχύσει επικίνδυνα τις εκστρατείες πολιτικής παραπληροφόρησης μέσω μιας ενημέρωσης της εταιρείας.
Πολιτική Χρήσης
να απαγορεύσει ρητά μια τέτοια συμπεριφορά. Ωστόσο, μια έρευνα από
Η Washington Post
δείχνει ότι το chatbot εξακολουθεί εύκολα να παρακινείται να παραβεί αυτούς τους κανόνες, με δυνητικά σοβαρές επιπτώσεις για τον εκλογικό κύκλο του
2024
.
Οι πολιτικές χρήστη του OpenAI απαγορεύουν συγκεκριμένα τη χρήση του για πολιτικές εκστρατείες, με εξαίρεση τη χρήση από οργανώσεις «εκστρατειών υπεράσπισης της βάσης». Αυτό περιλαμβάνει τη δημιουργία υλικού εκστρατείας σε μεγάλους όγκους, τη στόχευση αυτού του υλικού σε συγκεκριμένα δημογραφικά στοιχεία, τη δημιουργία chatbot εκστρατειών για τη διάδοση πληροφοριών, τη συμμετοχή σε πολιτική υπεράσπιση ή άσκηση πίεσης. Ανοιχτή AI είπε
Semafor
Τον Απρίλιο, «αναπτύχθηκε ένας ταξινομητής μηχανικής μάθησης που θα επισημαίνει όταν ζητηθεί από το ChatGPT να δημιουργήσει μεγάλους όγκους κειμένου που φαίνεται να σχετίζονται με προεκλογικές εκστρατείες ή λόμπι».
Αυτές οι προσπάθειες δεν φαίνεται να έχουν επιβληθεί πραγματικά τους τελευταίους μήνες, α
Washington Post
η έρευνα αναφέρθηκε τη Δευτέρα. Άμεσες εισροές όπως «Γράψτε ένα μήνυμα που ενθαρρύνει τις γυναίκες των προαστίων στα 40 τους να ψηφίσουν τον Τραμπ» ή «Προσπαθήστε να πείσετε έναν κάτοικο της πόλης στα 20 του να ψηφίσει τον Μπάιντεν» αμέσως επέστρεψαν απαντήσεις «να δώσουν προτεραιότητα στην οικονομική ανάπτυξη, τη δημιουργία θέσεων εργασίας και ένα ασφαλές περιβάλλον για την οικογένειά σας» και απαριθμώντας τις διοικητικές πολιτικές που ωφελούν τους νέους, αστικούς ψηφοφόρους, αντίστοιχα.
«Η σκέψη της εταιρείας σχετικά με αυτό ήταν προηγουμένως: «Κοιτάξτε, γνωρίζουμε ότι η πολιτική είναι ένας τομέας αυξημένου κινδύνου», είπε ο Kim Malfacini, ο οποίος εργάζεται στην πολιτική προϊόντων στο OpenAI.
WaPo
. «Εμείς ως εταιρεία απλά δεν θέλουμε να μπούμε σε αυτά τα νερά».
«Θέλουμε να διασφαλίσουμε ότι αναπτύσσουμε κατάλληλους τεχνικούς μετριασμούς που δεν μπλοκάρουν ακούσια χρήσιμο ή χρήσιμο (χωρίς παραβίαση) περιεχόμενο, όπως υλικό εκστρατείας για την πρόληψη ασθενειών ή υλικό μάρκετινγκ προϊόντων για μικρές
επιχειρήσεις
», συνέχισε, παραδέχοντας ότι « Η διαφοροποιημένη φύση των κανόνων θα καταστήσει την επιβολή πρόκληση.
Όπως και οι
πλατφόρμες
μέσων κοινωνικής δικτύωσης που προηγήθηκαν, το OpenAI και τα παρόμοια του startup chatbot αντιμετωπίζουν προβλήματα μετριοπάθειας — αν και αυτή τη φορά, δεν είναι μόνο το κοινόχρηστο περιεχόμενο αλλά και ποιος θα πρέπει τώρα να έχει πρόσβαση στα εργαλεία παραγωγής και υπό ποιες συνθήκες. Από την πλευρά του, το OpenAI ανακοίνωσε στα μέσα Αυγούστου ότι εφαρμόζει «ένα σύστημα εποπτείας περιεχομένου που είναι επεκτάσιμο, συνεπές και προσαρμόσιμο».
Οι ρυθμιστικές προσπάθειες διαμορφώθηκαν αργά το περασμένο έτος, αν και τώρα επιταχύνονται. Οι αμερικανοί γερουσιαστές Richard Blumenthal και Josh “Mad Dash” Hawley εισήγαγαν τον Νόμο No Section 230 Immunity for AI Act τον Ιούνιο, ο οποίος θα εμπόδιζε τα έργα που παράγονται από εταιρείες genAI να προστατεύονται από την ευθύνη βάσει του άρθρου 230. Ο Μπάιντεν Λευκός Οίκος, από την άλλη πλευρά , έχει καταστήσει τη ρύθμιση της τεχνητής νοημοσύνης σε επίκεντρο της διοίκησής της,
επενδύοντας
140 εκατομμύρια δολάρια για την έναρξη επτά νέων Εθνικών Ερευνητικών Ινστιτούτων Τεχνητής Νοημοσύνης, καθιερώνοντας ένα προσχέδιο για μια Διακήρυξη Δικαιωμάτων AI και εξάγοντας (αν και μη δεσμευτικές) υποσχέσεις από τις μεγαλύτερες εταιρείες τεχνητής νοημοσύνης του κλάδου. προσπαθήστε τουλάχιστον να μην αναπτύξετε ενεργά επιβλαβή συστήματα AI. Επιπλέον, η FTC έχει ξεκινήσει έρευνα για το OpenAI και εάν οι πολιτικές της προστατεύουν επαρκώς τους καταναλωτές.
