Δείτε πώς σχεδιάζει το OpenAI να αντιμετωπίσει την εκλογική παραπληροφόρηση σχετικά με το ChatGPT και το Dall-E



Καθώς πλησιάζουν οι προεδρικές εκλογές του

, το OpenAI γνωρίζει ότι η τεχνολογία του βρίσκεται στην καυτή θέση.

Η Washington Post

ονομάστηκε ο φετινός αγώνας το

“Εκλογές AI”,

και το πρόσφατο του Παγκόσμιου Οικονομικού Φόρουμ

“Παγκόσμια Έκθεση Κινδύνων 2024”

κατέταξε την παραπληροφόρηση και την παραπληροφόρηση που προέρχεται από την

παράλληλα με προ

όπως η κλιματική αλλαγή.

Σε ένα

ανάρτηση ιστολογίου κοινοποιήθηκε σήμερα

το OpenAI περιέγραψε τους τρόπους με τους οποίους σκοπεύει να προστατεύσει την ακεραιότητα των εκλογών και να χειριστεί τις εκλογικές παρεμβολές, συμπεριλαμβανομένων των «παραπλανητικών «deepfakes», κλιμακούμενων επιχειρήσεων επιρροής ή chatbot που υποδύονται υποψηφίους» στις πλατφόρμες του.

Εικόνες DALL-E

Στην ανάρτησή του, το OpenAI σημειώνει ότι «εργαλεία για τη βελτίωση της ακρίβειας των πραγματικών στοιχείων, τη μείωση της προκατάληψης και την απόρριψη ορισμένων αιτημάτων» υπάρχουν ήδη. Το DALL-E, για παράδειγμα, μπορεί να απορρίψει “αιτήματα που ζητούν δημιουργία εικόνας πραγματικών ανθρώπων, συμπεριλαμβανομένων των υποψηφίων”, αν και η ανάρτηση ιστολογίου δεν προσδιορίζει εάν ή πότε το DALL-E λαμβάνει αυτή την απόφαση.


ΔΕΙΤΕ ΕΠΙΣΗΣ:

Πόσο περιοριστικό είναι το DALL-E 3 του OpenAI στο ChatGPT;

Το OpenAI υπόσχεται επίσης καλύτερη διαφάνεια σχετικά με την προέλευση των εικόνων και τα εργαλεία που χρησιμοποιήθηκαν για τη δημιουργία τους. Μέχρι να κυκλοφορήσει το DALL-E 3 αργότερα φέτος, λέει η εταιρεία, σχεδιάζει να εφαρμόσει μια προσέγγιση κωδικοποίησης εικόνας που θα αποθηκεύει λεπτομέρειες σχετικά με την προέλευση του περιεχομένου.

Το OpenAI δοκιμάζει επίσης ένα νέο εργαλείο που μπορεί να ανιχνεύσει εάν μια εικόνα δημιουργήθηκε ή όχι από το DALL·E, ακόμη και όταν η εικόνα έχει «υποβληθεί σε συνήθεις τύπους τροποποιήσεων».

Περιεχόμενο GPT συνομιλίας

Το OpenAI δεν ανακοινώνει κάτι πολύ νέο όσον αφορά το ChatGPT και, αντ’ αυτού, το επισημαίνει

υπάρχουσες πολιτικές χρήσης

για την

και το API της.

Επί του παρόντος, δεν επιτρέπουν στους ανθρώπους να δημιουργούν εφαρμογές για πολιτική εκστρατεία και λόμπι, για παράδειγμα, ή να δημιουργούν chatbots που προσποιούνται ότι είναι αληθινά άτομα, συμπεριλαμβανομένων υποψηφίων ή κυβερνήσεων. Είναι επίσης αντίθετο με τις πολιτικές χρήσης του ChatGPT να δημιουργεί εφαρμογές “που αποτρέπουν τους ανθρώπους από τη συμμετοχή σε δημοκρατικές διαδικασίες” ή που αποθαρρύνουν την ψηφοφορία.


ΔΕΙΤΕ ΕΠΙΣΗΣ:

Το Bing AI chatbot της Microsoft Copilot δίνει λάθος πληροφορίες για τις εκλογές

Η ανάρτηση ιστολογίου υπόσχεται ότι το ChatGPT θα προσφέρει σύντομα στους χρήστες μεγαλύτερα επίπεδα διαφάνειας παρέχοντας πρόσβαση σε παγκόσμιες αναφορές ειδήσεων σε πραγματικό χρόνο που περιλαμβάνουν αναφορές και συνδέσμους. Η πλατφόρμα βελτιώνει επίσης την πρόσβαση σε έγκυρες πληροφορίες ψηφοφορίας, συνεργαζόμενος με το

Εθνική Ένωση Υπουργών Εξωτερικών

(NASS) και κατευθύνει τους χρήστες σε

CanIVote.org

όταν ρωτήθηκαν “ορισμένες διαδικαστικές ερωτήσεις σχετικά με τις εκλογές”, όπως “πού να ψηφίσετε;”

Οι χρήστες θα πρέπει επίσης να έχουν τη δυνατότητα να αναφέρουν πιθανές παραβιάσεις κατά τη χρήση της πλατφόρμας, μια επιλογή που είναι διαθέσιμη στα “νέα GPT” της εταιρείας.

Να είστε ασφαλείς εκεί έξω και χρησιμοποιήστε την καλύτερη κρίση σας καθώς πλησιάζουν οι εκλογές. Εάν θέλετε να μάθετε περισσότερα σχετικά με το πώς να εντοπίζετε την παραπληροφόρηση των εκλογών,

ρίξτε μια ματιά στον οδηγό της ProPublica.



τα


Εκλογές Τεχνητής Νοημοσύνης


VIA:

mashable.com


Δείτε πώς σχεδιάζει το OpenAI να αντιμετωπίσει την εκλογική παραπληροφόρηση σχετικά με το ChatGPT και το Dall-E, Δείτε πώς σχεδιάζει το OpenAI να αντιμετωπίσει την εκλογική παραπληροφόρηση σχετικά με το ChatGPT και το Dall-E, TechWar.GR


Leave A Reply



Cancel Reply

Your email address will not be published.