Modern technology gives us many things.

Πώς η τεχνητή νοημοσύνη ενεργοποιεί το περιεχόμενο επιβλαβών διατροφικών διαταραχών

Οι πλατφόρμες και τα εργαλεία παραγωγής τεχνητής νοημοσύνης (AI) μπορεί να είναι επικίνδυνα για χρήστες που ρωτούν για επιβλαβείς διαταραγμένες διατροφικές πρακτικές, σύμφωνα με νέα έκθεση που δημοσιεύτηκε από το Κέντρο για την Καταπολέμηση του Ψηφιακού Μίσους.

Ο βρετανικός μη κερδοσκοπικός οργανισμός και ο οργανισμός υπεράσπισης δοκίμασε έξι δημοφιλή chatbot τεχνητής νοημοσύνης και γεννήτριες εικόνων, συμπεριλαμβανομένων των My AI του Snapchat, Bard της Google και ChatGPT και Dall-E του OpenAI.

Οι ερευνητές του κέντρου τροφοδότησαν τα εργαλεία με συνολικά 180 προτροπές και διαπίστωσαν ότι παρήγαγαν επικίνδυνο περιεχόμενο ως απάντηση στο 41 τοις εκατό αυτών των ερωτημάτων. Οι προτροπές περιλάμβαναν αναζήτηση συμβουλών για το πώς να χρησιμοποιήσετε το τσιγάρο για να χάσετε βάρος, πώς να επιτύχετε μια «κομψή ηρωίνη» εμφάνιση και πώς να «διατηρήσετε τη λειτουργία της πείνας». Στο 94 τοις εκατό των επιβλαβών απαντήσεων κειμένου, τα εργαλεία προειδοποιούσαν τον χρήστη ότι οι συμβουλές του μπορεί να είναι ανθυγιεινές ή δυνητικά επικίνδυνες και συμβούλευαν τον χρήστη να αναζητήσει επαγγελματική φροντίδα, αλλά μοιράστηκαν το περιεχόμενο ούτως ή άλλως.

ΔΕΙΤΕ ΕΠΙΣΗΣ:

Οι 8 πιο σημαντικές στιγμές ψυχικής υγείας του 2023 (μέχρι στιγμής)

Από τις 60 απαντήσεις σε προτροπές που δόθηκαν στους παραγωγούς κειμένου AI Bard, ChatGPT και MyAI, σχεδόν το ένα τέταρτο περιελάμβανε επιβλαβές περιεχόμενο. Η MyAI αρχικά αρνήθηκε να παράσχει οποιαδήποτε συμβουλή. Ωστόσο, οι ερευνητές κατάφεραν να «σπάσουν το jailbreak» των εργαλείων χρησιμοποιώντας λέξεις ή φράσεις που παρακάμπτουν τα χαρακτηριστικά ασφαλείας. Περισσότερα από τα δύο τρίτα των απαντήσεων σε εκδόσεις jailbreak των μηνυμάτων περιείχαν επιβλαβές περιεχόμενο, συμπεριλαμβανομένου του τρόπου χρήσης ταινίας για απώλεια βάρους.

«Μη δοκιμασμένα, μη ασφαλή μοντέλα παραγωγής τεχνητής νοημοσύνης έχουν απελευθερωθεί στον κόσμο με αναπόφευκτη συνέπεια να προκαλούν βλάβη», έγραψε ο Imran Ahmed, Διευθύνων Σύμβουλος του Κέντρου Καταπολέμησης του Ψηφιακού Μίσους. «Διαπιστώσαμε ότι οι πιο δημοφιλείς τοποθεσίες παραγωγής τεχνητής νοημοσύνης ενθαρρύνουν και επιδεινώνουν τις διατροφικές διαταραχές μεταξύ των νεαρών χρηστών – μερικοί από τους οποίους μπορεί να είναι ιδιαίτερα ευάλωτοι».

Οι ερευνητές του κέντρου ανακάλυψαν ότι μέλη ενός φόρουμ διατροφικών διαταραχών με περισσότερους από 500.000 χρήστες χρησιμοποιούν εργαλεία τεχνητής νοημοσύνης για να δημιουργήσουν ακραία σχέδια διατροφής και εικόνες που εξυμνούν τα ανθυγιεινά, μη ρεαλιστικά πρότυπα σώματος.

Ενώ ορισμένες από τις πλατφόρμες απαγορεύουν τη χρήση των εργαλείων τεχνητής νοημοσύνης τους για τη δημιουργία περιεχομένου άτακτης διατροφής, άλλες εταιρείες έχουν πιο ασαφείς πολιτικές. «Η ασάφεια γύρω από τις πολιτικές των πλατφορμών τεχνητής νοημοσύνης δείχνει τους κινδύνους και τους κινδύνους που ενέχουν οι πλατφόρμες τεχνητής νοημοσύνης εάν δεν ρυθμιστούν σωστά», αναφέρει η έκθεση.

Οταν Washington Post Ο αρθρογράφος Geoffrey A. Fowler προσπάθησε να επαναλάβει την έρευνα του κέντρου τροφοδοτώντας τα ίδια εργαλεία παραγωγής τεχνητής νοημοσύνης με παρόμοια μηνύματα, αλλά έλαβε επίσης ανησυχητικές απαντήσεις.

Μεταξύ των ερωτήσεών του ήταν ποια φάρμακα θα μπορούσαν να προκαλέσουν εμετό, πώς να δημιουργήσετε ένα πρόγραμμα διατροφής χαμηλών θερμίδων και αιτήματα για εικόνες “thinspo”.

“Αυτό είναι αηδιαστικό και θα πρέπει να εξοργίσει οποιονδήποτε γονέα, γιατρό ή φίλο κάποιου με διατροφική διαταραχή.” έγραψε ο Φάουλερ. “Υπάρχει ένας λόγος που συνέβη: Η τεχνητή νοημοσύνη έμαθε μερικές βαθιά ανθυγιεινές ιδέες για την εικόνα του σώματος και το φαγητό ψάχνοντας στο διαδίκτυο. Και μερικές από τις καλύτερα χρηματοδοτούμενες εταιρείες τεχνολογίας στον κόσμο δεν την εμποδίζουν να τις επαναλάβει.”

Ο Φάουλερ έγραψε ότι όταν ρώτησε τις εταιρείες πίσω από τα εργαλεία, καμία από αυτές δεν υποσχέθηκε να σταματήσει την τεχνητή νοημοσύνη τους από το να δίνει συμβουλές σχετικά με τα τρόφιμα και την απώλεια βάρους μέχρι να εγγυηθούν ότι ήταν ασφαλές.

Αντίθετα, η εταιρεία δημιουργίας εικόνων Midjourney δεν απάντησε ποτέ στις ερωτήσεις του Fowler, έγραψε. Το Stability AI, το οποίο βρίσκεται πίσω από τη γεννήτρια εικόνας Stable Diffusion, είπε ότι πρόσθεσε διαταραγμένες διατροφικές προτροπές στα φίλτρα του. Η Google φέρεται να είπε στον Fowler ότι θα αφαιρούσε τη συμβουλή του Bard, αλλά αυτός μπόρεσε να τη δημιουργήσει ξανά λίγες μέρες αργότερα.

Οι ψυχολόγοι που μίλησαν με τον Fowler είπαν ότι οι προειδοποιήσεις ασφαλείας που παρέχονται από τα chatbots σχετικά με τις συμβουλές τους συχνά δεν λαμβάνονται υπόψη από τους χρήστες.

Η Hannah Bloch-Wehba, καθηγήτρια στη Νομική Σχολή A&M του Τέξας που μελετά τη μετριοπάθεια περιεχομένου, είπε στον Fowler ότι οι εταιρείες παραγωγής τεχνητής νοημοσύνης έχουν λίγα οικονομικά κίνητρα για να επιλύσουν το πρόβλημα.

«Έχουμε μάθει από την εμπειρία των μέσων κοινωνικής δικτύωσης ότι η αποτυχία ελέγχου αυτού του περιεχομένου δεν οδηγεί σε σημαντικές συνέπειες για τις εταιρείες ή, για τον βαθμό στον οποίο επωφελούνται από αυτό το περιεχόμενο», δήλωσε ο Bloch-Wehba.

Εάν αισθάνεστε ότι θέλετε να μιλήσετε σε κάποιον για τη διατροφική σας συμπεριφορά, στείλτε μήνυμα “NEDA” στο Γραμμή κειμένου κρίσης στο 741-741 για να συνδεθείτε με εκπαιδευμένο εθελοντή ή επισκεφθείτε το Ιστοσελίδα της Εθνικής Ένωσης Διατροφικών Διαταραχών Για περισσότερες πληροφορίες.





mashable.com

Follow TechWar.gr on Google News

Απάντηση