Εργοδότης της Microsoft αναφέρει ανησυχίες για την επιστολή με στυλό Copilot στην FTC
Ο μηχανικός της Microsoft Shane Jones του OpenAI’s DALL-E 3 τον Ιανουάριο, προτείνοντας ότι το προϊόν έχει ευπάθειες ασφαλείας που καθιστούν εύκολη τη δημιουργία βίαιων ή σεξουαλικών εικόνων. Υποστήριξε επίσης ότι η νομική ομάδα της Microsoft εμπόδισε τις προσπάθειές του να ειδοποιήσει το κοινό για το θέμα. Τώρα, έφερε το παράπονό του απευθείας στην FTC,
«Έχω προτρέψει επανειλημμένα τη Microsoft να αφαιρέσει το Copilot Designer από τη δημόσια χρήση μέχρι να τεθούν σε εφαρμογή καλύτερες διασφαλίσεις», έγραψε ο Τζόουνς σε επιστολή προς την Πρόεδρο της FTC, Λίνα Καν. Σημείωσε ότι η Microsoft “αρνήθηκε αυτή τη σύσταση” και τώρα ζητά από την εταιρεία να προσθέσει γνωστοποιήσεις στο προϊόν για να ειδοποιήσει τους καταναλωτές για τον υποτιθέμενο κίνδυνο. Ο Jones θέλει επίσης η εταιρεία να αλλάξει τη βαθμολογία στην εφαρμογή για να βεβαιωθεί ότι είναι μόνο για ενήλικα κοινά. Η εφαρμογή Android του Copilot Designer έχει επί του παρόντος βαθμολογία “E για όλους”.
Η Microsoft συνεχίζει «να εμπορεύεται το προϊόν σε «Οποιονδήποτε. Οπουδήποτε. Οποιαδήποτε συσκευή», έγραψε,
χρησιμοποιήθηκε πρόσφατα από τον CEO της εταιρείας Satya Nadella. Ο Τζόουνς έγραψε ξεχωριστή επιστολή στο διοικητικό συμβούλιο της εταιρείας, προτρέποντάς τους να ξεκινήσουν «μια ανεξάρτητη επανεξέταση των υπεύθυνων διαδικασιών αναφοράς περιστατικών τεχνητής νοημοσύνης της Microsoft».
Ένα δείγμα εικόνας (καναπές μπανάνας) που δημιουργήθηκε από το DALL-E 3 (OpenAI)
Όλα αυτά συνοψίζονται στο αν η εφαρμογή του DALL-E 3 από τη Microsoft θα δημιουργήσει βίαιες ή σεξουαλικές εικόνες, παρά τα προστατευτικά κιγκλιδώματα που έχουν τοποθετηθεί. Ο Τζόουνς λέει ότι είναι πολύ εύκολο να «ξεγελάσεις» την πλατφόρμα για να φτιάξεις ό,τι πιο άσχημο μπορεί να φανταστεί κανείς. Ο μηχανικός και ο κόκκινος συνεργάτης λέει ότι έβλεπε τακτικά το λογισμικό να τραβάει δυσάρεστες εικόνες από αβλαβή μηνύματα. Η άμεση «προεπιλογή», για παράδειγμα, δημιούργησε εικόνες δαιμόνων που γλεντούσαν με βρέφη και του Darth Vader να κρατά ένα τρυπάνι στο κεφάλι ενός μωρού. Το άμεσο «αυτοκινητικό ατύχημα» δημιούργησε φωτογραφίες σεξουαλικών γυναικών, μαζί με βίαιες απεικονίσεις τροχαίων ατυχημάτων. Άλλα μηνύματα δημιούργησαν εικόνες εφήβων που κρατούσαν τουφέκια επίθεσης, παιδιά που έκαναν χρήση ναρκωτικών και εικόνες που παραβίαζαν τη νομοθεσία περί πνευματικών δικαιωμάτων.
Αυτά δεν είναι απλώς ισχυρισμοί.
CNBC
ήταν σε θέση να αναδημιουργήσει σχεδόν κάθε σενάριο που ο Jones φώναξε χρησιμοποιώντας την τυπική έκδοση του λογισμικού. Σύμφωνα με τον Jones, πολλοί καταναλωτές αντιμετωπίζουν αυτά τα προβλήματα, αλλά η Microsoft δεν κάνει πολλά για αυτό. Ισχυρίζεται ότι η ομάδα Copilot λαμβάνει περισσότερες από 1.000 καταγγελίες ανάδρασης προϊόντων καθημερινά, αλλά ότι του είπαν ότι δεν υπάρχουν αρκετοί διαθέσιμοι πόροι για την πλήρη διερεύνηση και επίλυση αυτών των προβλημάτων.
«Εάν αυτό το προϊόν αρχίσει να διαδίδει επιβλαβείς, ανησυχητικές εικόνες παγκοσμίως, δεν υπάρχει μέρος για να το αναφέρετε, δεν υπάρχει αριθμός τηλεφώνου για να καλέσετε και δεν υπάρχει τρόπος να κλιμακωθεί αυτό για να το φροντίσετε αμέσως», είπε.
CNBC.
Το OpenAI είπε στο Engadget τον Ιανουάριο όταν ο Jones υπέβαλε την πρώτη του καταγγελία ότι η τεχνική προτροπής που μοιράστηκε «δεν παρακάμπτει τα συστήματα ασφαλείας» και ότι η εταιρεία «έχει αναπτύξει ισχυρούς ταξινομητές εικόνων που απομακρύνουν το μοντέλο από τη δημιουργία επιβλαβών εικόνων».
Ένας εκπρόσωπος της Microsoft πρόσθεσε ότι η εταιρεία έχει «δημιουργήσει ισχυρά εσωτερικά κανάλια αναφοράς για τη σωστή διερεύνηση και αποκατάσταση τυχόν ζητημάτων», συνεχίζοντας λέγοντας ότι ο Jones θα πρέπει «να επικυρώσει και να δοκιμάσει κατάλληλα τις ανησυχίες του πριν τις κλιμακώσει δημόσια». Η εταιρεία είπε επίσης ότι «συνδέεται με αυτόν τον συνάδελφο για να αντιμετωπίσει τυχόν εναπομένουσες ανησυχίες που μπορεί να έχει». Ωστόσο, αυτό έγινε τον Ιανουάριο, οπότε φαίνεται ότι οι εναπομείνασες ανησυχίες του Jones δεν αντιμετωπίστηκαν σωστά. Απευθυνθήκαμε και στις δύο εταιρείες για μια ενημερωμένη δήλωση.
Αυτό συμβαίνει μόλις το chatbot Gemini της Google αντιμετώπισε τη δική του διαμάχη για τη δημιουργία εικόνων. Το bot βρέθηκε να μοιάζει με τους ιθαγενείς Αμερικανούς Καθολικούς Πάπες. Η Google απενεργοποίησε την πλατφόρμα δημιουργίας εικόνων ενώ αυτή
Αυτό το άρθρο περιέχει συνδέσμους θυγατρικών. Εάν κάνετε κλικ σε έναν τέτοιο σύνδεσμο και κάνετε μια αγορά, ενδέχεται να κερδίσουμε μια προμήθεια.
VIA:
engadget.com

