Το «PhotoGuard» του MIT προστατεύει τις εικόνες σας από κακόβουλες επεξεργασίες AI

Το Dall-E και το Stable Diffusion ήταν μόνο η αρχή. Καθώς τα συστήματα παραγωγής τεχνητής νοημοσύνης πολλαπλασιάζονται και οι εταιρείες εργάζονται για να διαφοροποιήσουν τις προσφορές τους από εκείνες των ανταγωνιστών τους, τα

στο διαδίκτυο αποκτούν τη δύναμη να επεξεργάζονται εικόνες —καθώς και να τις δημιουργούν— με κορυφαίους τύπους όπως το Shutterstock και η

. Αλλά με αυτές τις νέες δυνατότητες που υποστηρίζονται από την τεχνητή νοημοσύνη έρχονται γνωστές παγίδες, όπως η μη εξουσιοδοτημένη χειραγώγηση ή η απρόσκοπτη κλοπή υπαρχόντων διαδικτυακών έργων τέχνης και εικόνων. Οι τεχνικές υδατογράφησης μπορούν να βοηθήσουν στον μετριασμό του τελευταίου, ενώ το νέο “

PhotoGuard

Η τεχνική που αναπτύχθηκε από το MIT CSAIL θα μπορούσε να βοηθήσει στην αποτροπή του πρώτου.

Το PhotoGuard λειτουργεί αλλάζοντας επιλεγμένα

σε μια εικόνα έτσι ώστε να διαταράξουν την ικανότητα ενός AI να κατανοήσει τι είναι η εικόνα. Αυτές οι «διαταραχές», όπως τις αναφέρει η ερευνητική ομάδα, είναι αόρατες στο ανθρώπινο μάτι αλλά εύκολα αναγνώσιμες από μηχανές. Η μέθοδος επίθεσης “κωδικοποιητή” για την εισαγωγή αυτών των τεχνουργημάτων στοχεύει τη λανθάνουσα αναπαράσταση της εικόνας στόχου από το αλγοριθμικό μοντέλο – τα πολύπλοκα μαθηματικά που περιγράφουν τη θέση και το χρώμα κάθε εικονοστοιχείου σε μια εικόνα – ουσιαστικά εμποδίζουν το AI να καταλάβει τι κοιτάζει.



Η πιο προηγμένη και υπολογιστικά εντατική μέθοδος επίθεσης «διάχυσης» καμουφλάρει μια εικόνα ως διαφορετική εικόνα στα μάτια του AI. Θα ορίσει μια εικόνα στόχο και θα βελτιστοποιήσει τις διαταραχές στην εικόνα του έτσι ώστε να μοιάζει με τον στόχο του. Οποιεσδήποτε τροποποιήσεις που προσπαθεί να κάνει μια τεχνητή νοημοσύνη σε αυτές τις “ανοσοποιημένες” εικόνες θα ισχύουν για τις ψεύτικες εικόνες “στόχου” με αποτέλεσμα μια μη ρεαλιστική εμφάνιση που δημιουργείται.

“Η επίθεση κωδικοποιητή κάνει το μοντέλο να πιστεύει ότι η εικόνα εισόδου (προς επεξεργασία) είναι κάποια άλλη εικόνα (π.χ. μια γκρίζα εικόνα),” είπε στο Engadget ο φοιτητής διδακτορικού διπλώματος MIT και επικεφαλής συγγραφέας της εργασίας, Hadi Salman. Ενδέχεται να επεξεργαστείτε την προστατευμένη εικόνα προσθέτοντας ψηφιακό θόρυβο, περικόπτοντας ή αναποδογυρίζοντας την εικόνα.

«Μια συλλογική προσέγγιση που περιλαμβάνει προγραμματιστές μοντέλων, πλατφόρμες μέσων κοινωνικής δικτύωσης και υπεύθυνους χάραξης πολιτικής παρουσιάζει μια ισχυρή άμυνα έναντι της μη εξουσιοδοτημένης χειραγώγησης εικόνας. Η εργασία σε αυτό το πιεστικό ζήτημα είναι ύψιστης σημασίας σήμερα», είπε ο Σαλμάν σε μια ανακοίνωση. «Και ενώ χαίρομαι που συνεισφέρω σε αυτήν τη λύση, χρειάζεται πολλή δουλειά για να γίνει αυτή η προστασία πρακτική. Οι εταιρείες που αναπτύσσουν αυτά τα μοντέλα πρέπει να επενδύσουν στη μηχανική ισχυρών εμβολιασμών ενάντια στις πιθανές απειλές που θέτουν αυτά τα εργαλεία τεχνητής νοημοσύνης».


Engadget.com



Μπορεί επίσης να σας αρέσει


Αφήστε ένα σχόλιο στο άρθρο…



Ακύρωση απάντησης

Η διεύθυνση email σας δεν θα δημοσιευθεί.