Η πρόκληση της αναγνώρισης ανθρώπων από την τεχνητή νοημοσύνη




Εάν πρόσφατα δυσκολευτήκατε να καταλάβετε εάν μια εικόνα ενός ατόμου είναι πραγματική ή δημιουργείται μέσω τεχνητής νοημοσύνης (AI), δεν είστε μόνοι.


Nέα μελέτη από ερευνητές του Πανεπιστημίου του Waterloo διαπίστωσε ότι οι άνθρωποι που πήραν μέρος, είχαν μεγαλύτερη δυσκολία από ό,τι αναμενόταν να διακρίνουν ποιος είναι πραγματικός άνθρωπος και ποιος δημιουργήθηκε τεχνητά.


Η μελέτη του Waterloo είδε 260 συμμετέχοντες να εξετάζουν 20 φωτογραφίες χωρίς ετικέτα: οι 10 ήταν πραγματικών ανθρώπων που λήφθηκαν από αναζητήσεις Google και οι άλλες 10 δημιουργήθηκαν από το Stable Diffusion ή το DALL-E, δύο κοινώς χρησιμοποιούμενα προγράμματα τεχνητής νοημοσύνης που δημιουργούν εικόνες.


Ζητήθηκε από τους συμμετέχοντες να χαρακτηρίσουν κάθε εικόνα ως πραγματική ή δημιουργημένη από AI και να εξηγήσουν γιατί πήραν την απόφασή τους.


Το 61% των συμμετεχόντων μπορούσε να διακρίνει τη διαφορά μεταξύ των ανθρώπων που δημιουργήθηκαν από την τεχνητή νοημοσύνη και των πραγματικών, πολύ κάτω από το όριο του 85% που περίμεναν οι ερευνητές.


«Οι άνθρωποι δεν είναι τόσο ικανοί στο να κάνουν τη διάκριση όσο εύκολη νομίζουν ότι είναι», δήλωσε η Andreea Pocol, υποψήφια διδάκτωρ στην Επιστήμη Υπολογιστών στο Πανεπιστήμιο του Waterloo και επικεφαλής συγγραφέας της μελέτης.


Οι συμμετέχοντες έδωσαν προσοχή σε λεπτομέρειες όπως τα δάχτυλα, τα δόντια και τα μάτια ως πιθανοί δείκτες όταν αναζητούσαν περιεχόμενο που δημιουργήθηκε από AI, αλλά οι αξιολογήσεις τους δεν ήταν πάντα σωστές.


Ο Pocol σημείωσε ότι η φύση της μελέτης επέτρεψε στους συμμετέχοντες να εξετάζουν λεπτομερώς τις φωτογραφίες, ενώ οι περισσότεροι χρήστες του Διαδικτύου βλέπουν τις εικόνες φευγαλέα, κάτι που κάνει το ποσοστό ακόμα πιό χαμηλό.


«Οι άνθρωποι που απλώς κάνουν κύλιση ή δεν έχουν χρόνο δεν θα πάρουν αυτές τις ενδείξεις», είπε ο Pocol.


Πρόσθεσε ότι ο εξαιρετικά γρήγορος ρυθμός με τον οποίο αναπτύσσεται η τεχνολογία τεχνητής νοημοσύνης καθιστά ιδιαίτερα δύσκολη την κατανόηση της πιθανότητας κακόβουλης ή κακόβουλης ενέργειας που δημιουργείται από εικόνες που δημιουργούνται από την τεχνητή νοημοσύνη.


Ο ρυθμός της ακαδημαϊκής έρευνας και της νομοθεσίας δεν είναι συχνά σε θέση να συμβαδίσει: οι εικόνες που δημιουργούνται από την τεχνητή νοημοσύνη έχουν γίνει ακόμη πιο ρεαλιστικές από τότε που ξεκίνησε η μελέτη στα τέλη του 2022.


Αυτές οι εικόνες που δημιουργούνται από την τεχνητή νοημοσύνη είναι ιδιαίτερα απειλητικές ως πολιτικό και πολιτιστικό εργαλείο, το οποίο θα μπορούσε να δει οποιονδήποτε χρήστη να δημιουργεί ψεύτικες εικόνες δημοσίων προσώπων σε ντροπιαστικές ή προσβλητικές καταστάσεις.


«Η παραπληροφόρηση δεν είναι καινούργια, αλλά τα εργαλεία της παραπληροφόρησης αλλάζουν και εξελίσσονται συνεχώς», είπε ο Πόκολ.


«Πλησιάζουμε σε ένα σημείο όπου οι άνθρωποι, ανεξάρτητα από το πόσο εκπαιδευμένοι θα είναι, θα αγωνίζονται να διαφοροποιήσουν τις πραγματικές εικόνες από τις ψεύτικες. Γι’ αυτό πρέπει να αναπτύξουμε εργαλεία για να το εντοπίσουμε και να το αντιμετωπίσουμε. Είναι σαν μια νέα κούρσα εξοπλισμών τεχνητής νοημοσύνης.»


Η μελέτη, «Seeing Is Nonger Believing: A Survey on the State of Deepfakes, AI-Generated Humans, and Other Nonveridical Media», εμφανίζεται στο περιοδικό



Advances in Computer Graphics.


VIA:

smartphonegreece.com


Follow TechWar.gr on Google News