Το Microsoft Copilot και η αμφιλεγόμενη δημιουργία δαιμόνων
Ο μηχανικός της Microsoft Shane Jones προειδοποιεί τον κόσμο ότι η συσκευή δημιουργίας εικόνων AI της εταιρείας του, Copilot Designer, πρέπει να αφαιρεθεί από τη δημόσια χρήση. Σε μια
συνέντευξη στο CNBC
Τετάρτη, ο Jones μοιράζεται πώς
το εργαλείο AI παράγει ανησυχητικά, παράξενα
εικόνες μέσω βασικών προτροπών. Λέει ότι η Microsoft τον έχει αγνοήσει σε μεγάλο βαθμό, επομένως βγαίνει στο χρηματιστήριο και ζητά από τις κυβερνητικές ρυθμιστικές αρχές να παρέμβουν.
«Αυτό δεν είναι πραγματικά ένα ασφαλές μοντέλο», είπε ο Τζόουνς στο CNBC. «Τους τελευταίους τρεις μήνες, έχω προτρέψει επανειλημμένα τη Microsoft να αφαιρέσει το Copilot Designer από τη δημόσια χρήση μέχρι να τεθούν σε εφαρμογή καλύτερες διασφαλίσεις», δήλωσε ο Jones σε επιστολή προς τις ρυθμιστικές αρχές.
Όταν ο Τζόουνς προέτρεψε τον Σχεδιαστή με τη φράση «υπέρ της επιλογής», η γεννήτρια εικόνων AI έφτυσε εικόνες δαιμόνων με αιχμηρά δόντια που ετοιμάζονταν να φάνε ένα βρέφος και αίμα που έτρεχε από μια χαμογελαστή γυναίκα. Σε ένα άλλο παράδειγμα, ο Τζόουνς οδήγησε τον Σχεδιαστή σε «αυτοκινητικό ατύχημα» και έλαβε εικόνες σεξουαλικών γυναικών με εσώρουχα δίπλα σε βίαια τροχαία ατυχήματα. Το CNBC μπόρεσε να αναπαράγει παρόμοιες εικόνες, αλλά το Gizmodo δεν ήταν στις δοκιμές μας.
Αυτές οι εικόνες, και άλλες που δημιουργήθηκαν από τον Jones, παραβιάζουν
Οδηγίες Υπεύθυνης Τεχνητής Νοημοσύνης της Microsoft
, αν και η εταιρεία έχει αρνηθεί τα αιτήματά του για παύση της δημιουργίας εικόνων. της Microsoft
Πολιτικές τεχνητής νοημοσύνης
αναφέρετε έναν ξεκάθαρο στόχο «να ελαχιστοποιήσετε τη δυνατότητα για στερεότυπα, υποτίμηση ή διαγραφή προσδιορισμένων δημογραφικών ομάδων, συμπεριλαμβανομένων των περιθωριοποιημένων ομάδων». Ωστόσο, ο Designer φαίνεται να υποτιμά τις γυναίκες και τους υπερασπιστές των επιλογών χωρίς καμία ιδιαίτερη προτροπή.
Το Microsoft Copilot έγινε πρωτοσέλιδο την περασμένη εβδομάδα για
αποκαλώντας τον εαυτό του Τζόκερ και λέγοντας σε έναν χρήστη να βάλει τέλος στη ζωή του
. Ο κατασκευαστής των Windows βγήκε και είπε ότι ο χρήστης «χακάριζε» το εργαλείο τεχνητής νοημοσύνης του για να επιτύχει τέτοιες απαντήσεις, αλλά δεν χρειαζόταν hacking για τις βίαιες απαντήσεις του Copilot σε αυτήν την περίπτωση.
Το Copilot Designer λειτουργεί
Η γεννήτρια εικόνας του OpenAI, Dall-E 3,
παράλληλα με τα άλλα εργαλεία τεχνητής νοημοσύνης της Microsoft, τα οποία είναι όλα χτισμένα στα μεγάλα γλωσσικά μοντέλα της εκκίνησης. Το Copilot είναι ένα ιδιαίτερα δημοφιλές εργαλείο AI για επιχειρήσεις, καθώς προσφέρεται μαζί με το Microsoft 365.
Η ομάδα Copilot λαμβάνει περισσότερα από 1.000 μηνύματα ανατροφοδότησης προϊόντων καθημερινά, σύμφωνα με τον Jones, και η Microsoft διαθέτει μόνο αρκετούς πόρους για να διερευνήσει τα πιο κατάφωρα σφάλματα. Γι’ αυτό επιμένουν ζητήματα όπως αυτά που βρήκε ο Τζόουνς.
Τα εργαλεία τεχνητής νοημοσύνης της Microsoft κερδίζουν τη φήμη για τις περίεργες, στριμμένες παραισθήσεις τους, αν και είναι απίθανο η εταιρεία να σταματήσει το Copilot. Το Google Gemini αναγκάστηκε
σταμάτησε προσωρινά τη δημιουργία εικόνων AI τον περασμένο μήνα
λόγω προβλημάτων με τις διασφαλίσεις του. Ήταν μια ντροπιαστική στιγμή για την Google και ο χρόνος θα δείξει εάν οι προσφορές AI της εταιρείας μπορούν να ανακάμψουν.
Τα εργαλεία τεχνητής νοημοσύνης αντιμετωπίζουν σε γενικές γραμμές μια σκληρή πολιτιστική μάχη, καθώς πολλά αντιμετωπίζουν έντονες αντιδράσεις σχετικά με τις διασφαλίσεις και τη λογοκρισία τους. Όπως συμβαίνει με τα περισσότερα προϊόντα Διαδικτύου, η εποπτεία περιεχομένου παρουσιάζεται ως μείζον ζήτημα, αλλά πολλά
Τα νέα προϊόντα τεχνητής νοημοσύνης έχουν ελάχιστες έως καθόλου εγγυήσεις
.
VIA:
gizmodo.com

