Η γραμμή βοήθειας για διατροφικές διαταραχές καταργεί το Chatbot αφού η συμβουλή του είναι τρομερά λάθος
Related Posts
Τα chatbot τεχνητής νοημοσύνης δεν είναι πολύ καλά στο να προσφέρουν συναισθηματική υποστήριξη όντας—ξέρετε—
όχι άνθρωπος
και – δεν μπορεί να δηλωθεί αρκετά –
δεν είναι πραγματικά έξυπνος
. Αυτό δεν εμπόδισε την Εθνική Ένωση Διατροφικών Διαταραχών να προσπαθήσει να βάλει ένα chatbot σε άτομα που ζητούσαν βοήθεια σε περιόδους κρίσης. Τα πράγματα πήγαν όσο καλά μπορείτε να περιμένετε, καθώς μια ακτιβίστρια ισχυρίζεται ότι αντί να τη βοηθήσει στη συναισθηματική δυσφορία, το chatbot προσπάθησε να τη βάλει με βελόνα για να χάσει βάρος και να μετράει συνεχώς τον εαυτό της.
ΝΕΔΑ
ανακοινώθηκε
στη σελίδα της στο Instagram την Τρίτη είχε καταργήσει το chatbot Tessa αφού «μπορεί να έδωσε πληροφορίες που ήταν επιβλαβείς και άσχετες με το πρόγραμμα». Ο μη κερδοσκοπικός οργανισμός που είχε σκοπό να παρέχει πόρους και υποστήριξη σε άτομα με διατροφικές διαταραχές είπε ότι ήταν
ερευνώντας
η κατάσταση
.
Η Tessa επρόκειτο να αντικαταστήσει τη μακροχρόνια τηλεφωνική γραμμή βοήθειας της NEDA
στελεχωμένο με λίγους υπαλλήλους πλήρους απασχόλησης και πολυάριθμους εθελοντές. Το πρώην προσωπικό ισχυρίζεται ότι απολύθηκαν παράνομα ως αντίποινα για την κίνησή τους να συνδικαλιστούν. Η γραμμή βοήθειας υποτίθεται ότι έχει πάει πλήρως
ένα
τρόπος
1η Ιουνίου.
Στις δοκιμές του ίδιου του Gizmodo για το chatbot πριν καταργηθεί, διαπιστώσαμε ότι απέτυχε να ανταποκριθεί σε απλές προτροπές όπως «Μισώ το σώμα μου» ή «Θέλω να είμαι τόσο αδύνατος». Ωστόσο, η Tessa είναι ακόμη πιο προβληματική, όπως εξηγεί η ακτιβίστρια για τη θετικότητα του σώματος Sharon Maxwell. Σε μια ανάρτηση στο Instagram, ο Μάξγουελ εξήγησε πώς μια συνομιλία με το chatbot μετατράπηκε γρήγορα στο χειρότερο είδος συμβουλής απώλειας βάρους. Το chatbot φέρεται να προσπάθησε να της πει να χάνει «με ασφάλεια και βιώσιμα» ένα έως δύο κιλά την εβδομάδα και μετά να μετράει τον εαυτό της χρησιμοποιώντας δαγκάνες για να προσδιορίσει τη σύσταση του σώματος. Η Maxwell είπε ότι το chatbot το έκανε αυτό ακόμα και αφού της είπε ότι είχε μια διατροφική διαταραχή.
είπε ο Μάξγουελ
Καθημερινή Τελεία
ότι το ρομπότ προσπάθησε ακόμη και να την κάνει να παρακολουθεί τις θερμίδες της και να ζυγίζεται συνεχώς. Είπε ότι στο παρελθόν υπέφερε από διατροφική διαταραχή και αν μιλούσε με την Tessa τότε «δεν πιστεύω ότι θα ήμουν εδώ σήμερα». Η Daily Dot έδειξε ένα στιγμιότυπο οθόνης από την αντιπρόεδρο επικοινωνίας και μάρκετινγκ της NEDA, Sarah Chase, σχολιάζοντας την ανάρτηση του Maxwell που την κατηγορούσε ότι προώθησε «ένα ξεκάθαρο ψέμα». Αφού ο Maxwell μοιράστηκε στιγμιότυπα οθόνης των συνομιλιών της Tessa, η Chase ζήτησε για λίγο συγγνώμη και στη συνέχεια διέγραψε τα σχόλιά της.
Ο Chase μας είπε προηγουμένως ότι το chatbot “δεν μπορεί να βγει από το σενάριο” και υποτίθεται ότι έπρεπε να καθοδηγήσει τους χρήστες μέσω ενός προγράμματος πρόληψης διατροφικών διαταραχών και να συνδέσει άλλους πόρους στον ιστότοπο της NEDA.
Η διευθύνουσα σύμβουλος του μη κερδοσκοπικού οργανισμού Liz Thompson είπε στο Gizmodo:
«Όσον αφορά τα σχόλια για την απώλεια βάρους και τον περιορισμό των θερμίδων που εκδόθηκαν πρόσφατα σε μια συνομιλία, ανησυχούμε και εργαζόμαστε με την ομάδα τεχνολογίας και την ερευνητική ομάδα για να το διερευνήσουμε περαιτέρω. ότι η γλώσσα είναι ενάντια στις πολιτικές και τις βασικές πεποιθήσεις μας ως οργανισμός διατροφικών διαταραχών. Μέχρι στιγμής, περισσότερα από 2.500 άτομα έχουν αλληλεπιδράσει με την Tessa και μέχρι εκείνο το σημείο, δεν είχαμε δει τέτοιου είδους σχόλια ή αλληλεπίδραση. Καταργήσαμε προσωρινά το πρόγραμμα μέχρι να καταλάβουμε και να διορθώσουμε το “σφάλμα” και τα “έναρξη” για αυτό το σχόλιο. “
Ο Thompson πρόσθεσε ότι η Tessa δεν υποτίθεται ότι υποκαθιστά την προσωπική φροντίδα ψυχικής υγείας και ότι όσοι βρίσκονται σε κρίση θα πρέπει να στείλουν μήνυμα στο
γραμμή κειμένου κρίσης
.
Ενα χαρτί
από το 2022 σχετικά με τις διατροφικές διαταραχές, το chatbot περιγράφει ένα μέγεθος δείγματος μελέτης 2.409 που χρησιμοποίησαν το chatbot ED αφού είδαν διαφημίσεις στα μέσα κοινωνικής δικτύωσης. Οι συγγραφείς της μελέτης είπαν ότι εξέτασαν περισσότερα από 52.000 σχόλια από χρήστες για να «προσδιορίσουν ακατάλληλες απαντήσεις που επηρέασαν αρνητικά την εμπειρία των χρηστών και τις τεχνικές δυσλειτουργίες». Οι ερευνητές παρατήρησαν ότι το μεγαλύτερο πρόβλημα με το chatbot ήταν το πόσο περιορισμένη ανταποκρίνεται στις «απροσδόκητες απαντήσεις των χρηστών».
Αν και ως Maxwell
επεσήμανε
Σε μια επόμενη ανάρτηση, οι ξένοι δεν έχουν τρόπο να πουν πόσα από αυτά τα 2.500 άτομα έλαβαν το δυνητικά επιβλαβές σχόλιο για το chatbot.
Άλλοι επαγγελματίες δοκίμασαν το chatbot προτού καταργηθεί. Η ψυχολόγος Alexis Conason δημοσίευσε στιγμιότυπα οθόνης του chatbot στο Instagram της, δείχνοντας ότι το chatbot παρείχε την ίδια «υγιή και βιώσιμη» γλώσσα απώλειας βάρους όπως έκανε στον Maxwell. Co
Ο Nason έγραψε ότι οι απαντήσεις του chatbot «θα προωθούσαν περαιτέρω τη διατροφική διαταραχή».
Αυτό που προκαλεί ακόμη μεγαλύτερη σύγχυση με την κατάσταση είναι το πώς η NEDA φαίνεται διαβολική στο να ισχυρίζεται ότι η Tessa δεν είναι τεχνητή νοημοσύνη, αλλά ένα πολύ πιο ευγενικό chatbot κλήσης και απάντησης. Δημιουργήθηκε αρχικά το 2018 χάρη στη χρηματοδότηση με την υποστήριξη ερευνητών συμπεριφορικής υγείας. Το ίδιο το σύστημα σχεδιάστηκε εν μέρει από τον Cass, πρώην X2AI, και βασίζεται σε ένα παλαιότερο «συναισθηματική υγεία chatbot που ονομάζεται Tess». Ο Chase μας είπε προηγουμένως “η συνομιλία προσομοίωσης υποβοηθάται, αλλά εκτελεί ένα πρόγραμμα και δεν μαθαίνει όσο πάει.”
Τελικά, οι εξηγήσεις της NEDA δεν έχουν νόημα, δεδομένου ότι η Tessa προσφέρει συμβουλές ότι οι αξιώσεις μη κερδοσκοπικού χαρακτήρα αντιβαίνουν στα δικά της ιδανικά. ΕΝΑ
χαρτί από το 2019
περιγράφει την Τες ως τεχνητή νοημοσύνη
με βάση τη μηχανική μάθηση και τους «αλγόριθμους συναισθημάτων».
Πέρα από αυτό, υπάρχουν ελάχιστες έως καθόλου πληροφορίες σχετικά με το πώς σχεδιάστηκε το chatbot, εάν βασίζεται σε δεδομένα εκπαίδευσης, όπως είναι τα σύγχρονα chatbot AI, όπως το ChatGPT, και ποια προστατευτικά κιγκλιδώματα υπάρχουν για να το αποτρέψουν από το σενάριο. Το Gizmodo επικοινώνησε με τον Cass για σχόλια σχετικά με το chatbot, αλλά δεν ακούσαμε αμέσως απάντηση. Η σελίδα της εταιρείας που περιγράφει την Tessa έχει αφαιρεθεί, αν και η σελίδα ήταν ενεργή μόλις στις 10 Μαΐου, σύμφωνα με το
Μηχανή επιστροφής
.

