Μερικοί άνθρωποι πιστεύουν ότι τα λευκά πρόσωπα που δημιουργούνται από την τεχνητή νοημοσύνη φαίνονται πιο αληθινά από τις φωτογραφίες



Καθώς η τεχνολογία εξελίσσεται, οι εικόνες ανθρώπινων προσώπων που δημιουργούνται από την τεχνητή νοημοσύνη γίνονται όλο και πιο δυσδιάκριτες από τις πραγματικές φωτογραφίες. Αλλά η ικανότητά μας να διαχωρίζουμε το πραγματικό από το τεχνητό μπορεί να οφείλεται σε προσωπικές προκαταλήψεις — τόσο τις δικές μας όσο και των υποκείμενων αλγορίθμων της τεχνητής νοημοσύνης.

Σύμφωνα με μια νέα μελέτη που δημοσιεύτηκε πρόσφατα στο περιοδικό


Ψυχολογική Επιστήμη


ορισμένοι άνθρωποι μπορεί να αναγνωρίσουν εσφαλμένα τα λευκά πρόσωπα που δημιουργούνται από την τεχνητή νοημοσύνη ως αληθινά

πιο συχνά

από ό,τι μπορούν να προσδιορίσουν με ακρίβεια πραγματικές φωτογραφίες Καυκάσιων. Πιο συγκεκριμένα, είναι οι λευκοί που δεν μπορούν να διακρίνουν μεταξύ πραγματικών και λευκών προσώπων που δημιουργούνται από AI.


[Related:



says his

is hawking dental insurance


.]

Σε μια σειρά δοκιμών που διεξήχθησαν από ερευνητές που συνεργάζονται σε πανεπιστήμια της Αυστραλίας, της Ολλανδίας και του Ηνωμένου Βασιλείου, 124 λευκοί ενήλικες ανατέθηκαν να ταξινομήσουν μια σειρά προσώπων ως τεχνητά ή αληθινά και στη συνέχεια να αξιολογήσουν την εμπιστοσύνη τους για κάθε απόφαση σε μια κλίμακα 100 βαθμών. . Η ομάδα αποφάσισε να ταιριάξει τους λευκούς συμμετέχοντες με παραδείγματα καυκάσιων εικόνων σε μια προσπάθεια να μετριάσει τις δυνατότητες

προκατάληψη αναγνώρισης της φυλής

— η τάση των φυλετικών και πολιτιστικών πληθυσμών να θυμούνται λιγότερο άγνωστα πρόσωπα από διαφορετικά δημογραφικά στοιχεία.

«Είναι αξιοσημείωτο ότι τα λευκά πρόσωπα τεχνητής νοημοσύνης μπορούν πειστικά να θεωρηθούν πιο αληθινά από τα ανθρώπινα πρόσωπα – και οι άνθρωποι δεν συνειδητοποιούν ότι τους ξεγελούν», γράφουν οι ερευνητές στην εργασία τους.

Ούτε αυτό ήταν καθόλου μικρό περιθώριο. Οι συμμετέχοντες κατά λάθος ταξινόμησαν ένα πλήρες 66 τοις εκατό των εικόνων τεχνητής νοημοσύνης ως φωτογραφημένων ανθρώπων, έναντι σχεδόν των μισών από τις πραγματικές φωτογραφίες. Εν τω μεταξύ, η ικανότητα των ίδιων λευκών συμμετεχόντων να διακρίνουν αληθινά από τεχνητά έγχρωμα άτομα ήταν περίπου 50-50. Σε ένα δεύτερο πείραμα, 610 συμμετέχοντες βαθμολόγησαν τις ίδιες εικόνες χρησιμοποιώντας 14 χαρακτηριστικά που συνέβαλαν σε αυτό που τις έκανε να φαίνονται ανθρώπινες, χωρίς να γνωρίζουν ότι ορισμένες φωτογραφίες ήταν ψεύτικες. Από αυτά τα χαρακτηριστικά, η αναλογικότητα, η οικειότητα, η απομνημόνευση των προσώπων και η αντίληψη των ρεαλιστικών ματιών κατέλαβαν την υψηλότερη κατάταξη για τα υποκείμενα της

ς.


Ποιοτικές απαντήσεις από το Πείραμα 1: ποσοστό κωδικών (N = 546) σε κάθε θέμα. Τα δευτερεύοντα θέματα εμφανίζονται στο εξωτερικό άκρο του κύριου θέματος. Πίστωση:

Miller et al., 2023


Η ομάδα ονόμασε αυτή την τάση που εντοπίστηκε πρόσφατα για υπερβολική εσφαλμένη απόδοση προσώπων που δημιουργούνται τεχνητά -συγκεκριμένα λευκών προσώπων- ως «υπερρεαλισμός τεχνητής νοημοσύνης». Οι έντονες στατιστικές διαφορές πιστεύεται ότι προέρχονται από καλά τεκμηριωμένες αλγοριθμικές προκαταλήψεις στην ανάπτυξη AI. Τα συστήματα AI εκπαιδεύονται σε πολύ περισσότερα λευκά θέματα από το POC, οδηγώντας σε μεγαλύτερη ικανότητα τόσο για τη δημιουργία πειστικών λευκών προσώπων, όσο και για την ακριβή ταυτοποίησή τους χρησιμοποιώντας τεχνικές αναγνώρισης προσώπου.

Οι προεκ

αυτής της ανισότητας μπορεί να κυμαίνονται μέσα από αμέτρητες επιστημονικές, κοινωνικές και ψυχολογικές καταστάσεις — από κλοπή ταυτότητας, φυλετικό προφίλ, έως βασικές ανησυχίες για την προστασία της ιδιωτικής ζωής.


[Related:


AI plagiarism detectors falsely flag non-native English



.]

«Τα αποτελέσματά μας εξηγούν γιατί εμφανίζεται ο υπερρεαλισμός της τεχνητής νοημοσύνης και δείχνουν ότι δεν φαίνονται όλα τα πρόσωπα της τεχνητής νοημοσύνης εξίσου ρεαλιστικά, με συνέπειες για πολλαπλασιασμό της κοινωνικής προκατάληψης και για δημόσια εσφαλμένη αναγνώριση της τεχνητής νοημοσύνης», γράφει η ομάδα στην εργασία της, προσθέτοντας ότι το φαινόμενο του υπερρεαλισμού τεχνητής νοημοσύνης «υποδηλώνει ότι πρέπει είναι κάποιες οπτικές διαφορές μεταξύ της τεχνητής νοημοσύνης και των ανθρώπινων προσώπων, τις οποίες οι άνθρωποι παρερμηνεύουν».

Αξίζει να σημειωθεί ότι η ομάδα δοκιμών της νέας μελέτης ήταν τόσο μικρή όσο και εξαιρετικά περιορισμένη, επομένως απαιτείται αναμφίβολα περισσότερη έρευνα για την περαιτέρω κατανόηση της έκτασης και των επιπτώσεων τέτοιων προκαταλήψεων. Ωστόσο, παραμένει αλήθεια ότι πολύ λίγα είναι ακόμα γνωστά για το τι μπορεί να σημαίνει ο υπερρεαλισμός της τεχνητής νοημοσύνης για τους πληθυσμούς, καθώς και πώς επηρεάζουν την κρίση στην καθημερινή ζωή. Εν τω μεταξύ, οι άνθρωποι μπορεί να λάβουν κάποια βοήθεια στη διάκριση από μια εξαιρετικά ειρωνική πηγή: Κατά τη διάρκεια δοκιμών, η ερευνητική ομάδα κατασκεύασε επίσης ένα πρόγραμμα μηχανικής μάθησης με σκοπό να διαχωρίσει τα αληθινά από τα ψεύτικα ανθρώπινα πρόσωπα – το οποίο προχώρησε στο να επιτύχει με ακρίβεια το 94 τοις εκατό του χρόνου.


VIA:

popsci.com


Leave A Reply



Cancel Reply

Your email address will not be published.