Τεχνητή Νοημοσύνη και προσωπικά δεδομένα, όχι τόσο καλός συνδυασμός




Σε πρόσφατα άρθρα έχουμε αναφέρει τους κινδύνους που κρύβει η υιοθέτηση της τεχνητής νοημοσύνης για τα προσωπικά δεδομένα των χρηστών. Με αφορμή την Ημέρα Προστασίας Δεδομένων, τίθεται ξανά το ερώτημα, καθώς και ποιες είναι οι κινήσεις της Ε.Ε. για την προστασία των πολιτών.


Η τεχνητή νοημοσύνη βασίζεται σε μεγάλα γλωσσικά μοντέλα που εκπαιδεύονται από δεδομένα που εισάγουν οι χρήστες. Αυτά είναι μερικές φορές ευαίσθητα και εμπιστευτικά, αλλά το AI δεν ξέρει πώς να τα ταξινομήσει. Πώς μπορούμε να διασφαλίσουμε ότι δεν αποκαλύπτονται;

Προσωπικά δεδομένα που παύουν να είναι προσωπικά


Τα AI που χρησιμοποιούνται σε συνδεδεμένες συσκευές, όπως έξυπνα ρολόγια και διαδικτυακές πλατφόρμες, μπορούν να έχουν πρόσβαση σε ευαίσθητες πληροφορίες, συχνά χωρίς την πλήρη γνώση των χρηστών. Φανταστείτε λεπτομέρειες της προσωπικής σας ζωής να εμφανίζονται σε μια απάντηση από ένα chatbot όπως το ChatGP σε οποιονδήποτε…


Αυτό είναι δυστυχώς δυνατό επειδή το γλωσσικό μοντέλο εμπλουτίζεται από όσα εισάγουν οι χρήστες του. Οι καταναλωτές δεν γνωρίζουν πάντα ότι η υποβολή προσωπικών ερωτήσεων, ιατρικής φύσης, για παράδειγμα, σε ένα εργαλείο συνομιλίας σημαίνει ότι παρέχουν στις εταιρείες που διαχειρίζονται αυτήν την τεχνητή νοημοσύνη ευαίσθητες πληροφορίες που θα μπορούσαν να χρησιμοποιηθούν για εμπορικούς σκοπούς. Και αυτό δεν είναι το μόνο πρόβλημα, γιατί η τεχνητή νοημοσύνη εμπλέκει πολλούς παράγοντες (προγραμματιστής, πάροχος, διανομέας, χρήστης κ.λπ.). Όλα αυτά παραμένουν μάλλον αδιαφανή για τον καταναλωτή. Ως εκ τούτου, είναι δύσκολο να γνωρίζουμε ποιος έχει πραγματικά πρόσβαση στα προσωπικά δεδομένα και ποιος θα είναι υπεύθυνος σε περίπτωση προβλημάτων.


Αυτό ισχύει επίσης για εταιρείες των οποίων οι υπάλληλοι εισάγουν εμπιστευτικά οικονομικά δεδομένα ή αποκλειστικούς πηγαίους κώδικες χωρίς να συνειδητοποιούν ότι το μοντέλο θα τους απορροφήσει και αναμφίβολα θα τους εκθέσει τελικά. Επιπλέον, η έρευνα δείχνει ότι το ποσοστό των διαρροών δεδομένων αυτού του τύπου δεν είναι αμελητέο: μόνο για το ChatGPT, μηνιαίως υπάρχουν 158 τέτοια περιστατικά ανά 10.000 χρήστες!


Ρυθμιστικό πλαίσιο από την Ε.Ε


Αυτός είναι ο λόγος για τον οποίο οι κανονισμοί προστασίας δεδομένων αρχίζουν να εμφανίζονται στην περίπτωση της τεχνητής νοημοσύνης. Τον Δεκέμβριο του 2023, η Ευρωπαϊκή Ένωση συμφώνησε να αναπτύξει εναρμονισμένους κανόνες για την τεχνητή νοημοσύνη. Για την καλύτερη προστασία των χρηστών, η Ευρωπαϊκή Ένωση έχει προτείνει ως εκ τούτου τρία κείμενα: ένα κανονιστικό πλαίσιο για την τεχνητή νοημοσύνη, μια οδηγία για την ευθύνη για την τεχνητή νοημοσύνη και μια οδηγία για την ευθύνη προϊόντων. Η ΕΕ θέλει να αναγκάσει τους ψηφιακούς γίγαντες και άλλες πλατφόρμες και κοινωνικά δίκτυα να ενημερώνουν καλύτερα τους χρήστες για τους αλγόριθμούς τους. Και για να τους υποχρεώσει, το κείμενο προβλέπει σημαντικές ποινές. Θα μπορούσαν να κυμαίνονται από 10 έως 30 εκατ. ευρώ ή 2 έως 4% του τζίρου σε περίπτωση μη τήρησης των νέων αυτών υποχρεώσεων.


Προβλέπουν την υποχρέωση διαφάνειας και τη δημοσίευση περίληψης των δεδομένων εκπαίδευσης που χρησιμοποιούνται για τα μοντέλα. Εκτός από κανονισμούς που σε κάθε περίπτωση παραμένουν εκτός ρυθμού καινοτομίας, υπάρχουν λύσεις για την προστασία των δεδομένων και παραδόξως, είναι η ίδια η τεχνητή νοημοσύνη που μπορεί να εκτελέσει αυτό το έργο!

μυστικότητα


Συνθετικά δεδομένα


Μια λύση θα ήταν να μπορούμε να πούμε στο AI ποια δεδομένα πρέπει να προστατεύονται. Στη συνέχεια, η τεχνητή νοημοσύνη καθιστά δυνατό τον έλεγχο του κατά πόσον ευαίσθητες πληροφορίες είναι πιθανό να φύγουν από το δίκτυο μιας εταιρείας.


Η άλλη τεχνική λύση συνίσταται στην εκμάθηση τεχνητής νοημοσύνης με

συνθετικά δεδομένα

. Πρόκειται για δεδομένα που δημιουργούνται τεχνητά και αντικαθιστούν τα πραγματικά δεδομένα για την προστασία του πρωτότυπου. Είναι ανώνυμα, αλλά για την τεχνητή νοημοσύνη θα έχουν το ίδιο αποτέλεσμα με τα πραγματικά δεδομένα. Συγκεκριμένα, στην ιατρική για παράδειγμα, αντί να τροφοδοτεί το AI με πραγματικές ακτινογραφίες που δείχνουν όγκους, ένα AI θα παράγει ισοδύναμες ακτινογραφίες για την εκπαίδευση ενός συστήματος μηχανικής μάθησης.


Αυτά τα συνθετικά δεδομένα θα έχουν το ίδιο αποτέλεσμα και θα επιτρέψουν στην τεχνητή νοημοσύνη να υποστηρίξει το έργο των ακτινολόγων εξίσου αποτελεσματικά. Το πρόβλημα είναι ότι η δημιουργία αυτών των συνθετικών δεδομένων απαιτεί τη δημιουργία συγκεκριμένης τεχνητής νοημοσύνης και αυτό έχει τεράστιο κόστος. Στην πραγματικότητα, η προστασία δεδομένων σε επίπεδο AI ​​δεν αποτελεί επί του παρόντος προτεραιότητα.

The post Τεχνητή Νοημοσύνη και προσωπικά δεδομένα, όχι και τόσο καλός συνδυασμός appeared first on GizChina Greece.


VIA:

gr.gizchina.com


Follow TechWar.gr on Google News