Το WhatsApp δέχεται πυρά για απαντήσεις σε αυτοκόλλητα που δημιουργήθηκαν από την τεχνητή νοημοσύνη στο «Παλαιστίνη»



Νωρίτερα φέτος, το WhatsApp που ανήκει στη Meta άρχισε να δοκιμάζει μια νέα δυνατότητα που επιτρέπει στους χρήστες να δημιουργούν αυτοκόλλητα με βάση μια περιγραφή κειμένου χρησιμοποιώντας AI. Όταν οι χρήστες αναζητούν “Παλαιστίνιο”, “Παλαιστίνη” ή “Μουσουλμάνο αγόρι Παλαιστίνη”, η λειτουργία επιστρέφει μια φωτογραφία ενός όπλου ή ενός αγοριού με όπλο,


μια αναφορά από

Ο κηδεμόνας



δείχνει


.

Σύμφωνα με

Ο κηδεμόνας

Στην αναφορά της Παρασκευής, τα αποτελέσματα αναζήτησης διαφέρουν ανάλογα με το ποιος χρήστης κάνει αναζήτηση. Ωστόσο, οι προτροπές για “Ισραηλινό αγόρι” δημιούργησαν αυτοκόλλητα με παιδιά που έπαιζαν και διαβάζουν, ακόμη και τα μηνύματα για “Ισραηλινός στρατός” δεν δημιούργησαν φωτογραφίες ανθρώπων με όπλα. Αυτό, σε σύγκριση με τις εικόνες που προέρχονται από τις παλαιστινιακές έρευνες, είναι ανησυχητικό. Ένα άτομο με γνώση των συζητήσεων που

Ο κηδεμόνας

δεν ανέφερε στο ειδησεογραφικό πρακτορείο ότι οι υπάλληλοι της Meta έχουν αναφέρει και κλιμακώσει το θέμα εσωτερικά.


ΔΕ

Ε ΕΠΙΣΗΣ:

Ο

Pro-Palestine @Eye.on.Palestine κλειδώθηκε από τον Meta, καταργήθηκε στο X

“Γνωρίζουμε αυτό το ζήτημα και το αντιμετωπίζουμε”, δήλωσε εκπρόσωπος της Meta σε δήλωση στο Mashable. “Όπως είπαμε όταν παρουσιάσαμε τη λειτουργία, τα μοντέλα θα μπορούσαν να επιστρέψουν ανακριβείς ή ακατάλληλες εξόδους όπως συμβαίνει με όλα τα συστήματα τεχνητής νοημοσύνης που δημιουργούνται. Θα συνεχίσουμε να βελτιώνουμε αυτές τις δυνατότητες καθώς εξελίσσονται και περισσότεροι άνθρωποι μοιράζονται τα σχόλιά τους.”

Δεν είναι σαφές πόσο καιρό εντοπίζονται οι διαφορές

Ο κηδεμόνας

ή εάν αυτές οι διαφορές εξακολουθούν να επιμένουν. Για παράδειγμα, όταν αναζητώ τώρα “Παλαιστίνιος”, η αναζήτηση επιστρέφει ένα αυτοκόλλητο με ένα άτομο που κρατά λουλούδια, ένα χαμογελαστό άτομο με ένα πουκάμισο που λέει αυτό που μοιάζει με “Παλαιστίνιο”, ένα νεαρό άτομο και έναν μεσήλικα. Όταν έψαξα την “Παλαιστίνη”, τα αποτελέσματα έδειξαν έναν νεαρό να τρέχει, μια πινακίδα ειρήνης πάνω από την παλαιστινιακή σημαία, έναν θλιμμένο νεαρό και δύο απρόσωπα παιδιά πιασμένα χέρι-χέρι. Όταν αναζητάτε “Μουσουλμάνος Παλαιστίνιος”, η αναζήτηση εμφανίζει τέσσερα νεαρά χαμογελαστά αγόρια. Παρόμοια αποτελέσματα εμφανίζονται όταν έψαξα “

”, “Israeli” ή “Jewish boy Israeli”. Το Mashable είχε πολλούς χρήστες να αναζητούν τις ίδιες λέξεις και, ενώ τα αποτελέσματα διέφεραν, καμία από τις εικόνες από αναζητήσεις για “Παλαιστίνιος”, “Παλαιστίνιος”, “Μουσουλμάνος Παλαιστίνιος”, “Ισραήλ”, “Ισραηλινός” ή “Εβραίος Ισραηλινός ” οδήγησε σε αυτοκόλλητα AI με οποιαδήποτε όπλα.


ΔΕΙΤΕ ΕΠΙΣΗΣ:

Ο κόσμος κατηγορεί το Instagram για σκιώδη banner περιεχομένου σχετικά με την Παλαιστίνη

Ωστόσο, εξακολουθούν να υπάρχουν διαφορές. Για παράδειγμα, όταν ψάχνω για τον “παλαιστινιακό στρατό”, μια εικόνα δείχνει ένα άτομο που κρατά ένα όπλο με στολή, ενώ άλλοι τρεις είναι απλώς άνθρωποι με στολή. όταν ψάχνω για τον “ισραηλινό στρατό”, η αναζήτηση επιστρέφει τρία άτομα με στολή και ένα άτομο με στολή που οδηγεί ένα στρατιωτικό όχημα. Η αναζήτηση για “Χαμάς” δεν επιστρέφει αυτοκόλλητα τεχνητής νοημοσύνης. Και πάλι, κάθε αναζήτηση θα διαφέρει ανάλογα με το άτομο που κάνει αναζήτηση.

Αυτό έρχεται σε μια περίοδο κατά την οποία ο Meta έχει δεχθεί πυρά για φερόμενους

shadowbanning φιλοπαλαιστινιακού περιεχομένου

,

κλείδωμα φιλοπαλαιστινιακών λογαριασμών

, και προσθέτοντας «τρομοκράτη» στο παλαιστινιακό βιογραφικό. Άλλα συστήματα τεχνητής νοημοσύνης, συμπεριλαμβανομένων των Google

και ChatGPT, έχουν επίσης δείξει σημαντικά σημάδια μεροληψίας σχετικά με το Ισραήλ και την Παλαιστίνη.


VIA:

mashable.com


Leave A Reply



Cancel Reply

Your email address will not be published.