ΤΟ ΤΕΛΕΥΤΑΙΟ ΚΥΜΑ
Η ανάπτυξη της τεχνητής νοημοσύνης έχει αναγκάσει πολλούς από εμάς να ξανασκεφτούμε βασικές πτυχές της ζωής μας. Οι ψηφιακοί καλλιτέχνες, για παράδειγμα, πρέπει τώρα να επικεντρωθούν στην προστασία της δουλειάς τους από τοποθεσίες δημιουργίας εικόνας και οι δάσκαλοι πρέπει να αντιμετωπίσουν ορισμένους από τους μαθητές τους που ενδέχεται να αναθέτουν εξωτερική ανάθεση
σύνταξη δοκιμίου στο ChatGPT
.
Αλλά η πλημμύρα της τεχνητής νοημοσύνης συνοδεύεται από σημαντικούς κινδύνους για την προστασία της ιδιωτικής ζωής που όλοι πρέπει να κατανοήσουν—ακόμα κι αν δεν σκοπεύετε να μάθετε ποτέ τι σκέφτεται αυτή η τεχνολογία
θα έμοιαζες σαν merperson
.
Έλλειψη διαφάνειας
«Συχνά γνωρίζουμε πολύ λίγα για το ποιος χρησιμοποιεί τα προσωπικά μας στοιχεία, πώς και για ποιους σκοπούς», λέει
Τζέσικα Μπραντ
διευθυντής πολιτικής για την Πρωτοβουλία Τεχνητής Νοημοσύνης και Αναδυόμενης Τεχνολογίας στο
Ινστιτούτο Brookings
ένας μη κερδοσκοπικός οργανισμός στην Ουάσιγκτον, DC, που διεξάγει έρευνα που χρησιμοποιεί για να αντιμετωπίσει ένα ευρύ φάσμα εθνικών και παγκόσμιων προβλημάτων.
Σε γενικές γραμμές, η μηχανική μάθηση – η διαδικασία με την οποία ένα σύστημα τεχνητής νοημοσύνης γίνεται πιο ακριβές – απαιτεί πολλά δεδομένα. Όσο περισσότερα δεδομένα έχει ένα σύστημα, τόσο πιο ακριβές γίνεται. Δημιουργικές πλατφόρμες τεχνητής νοημοσύνης όπως τα chatbots
ChatGPT
και
Ο Βάρδος της Google
καθώς και το πρόγραμμα δημιουργίας εικόνων Dall-E λαμβάνει μερικά από τα δεδομένα προπόνησής του μέσω μιας τεχνικής που ονομάζεται απόξεση: Σαρώνουν το Διαδίκτυο για να
συγκομιδή χρήσιμες δημόσιες πληροφορίες
.
Αλλά μερικές φορές, λόγω ανθρώπινου λάθους ή αμέλειας, ιδιωτικά δεδομένα που δεν έπρεπε ποτέ να ήταν δημόσια, όπως ευαίσθητα εταιρικά έγγραφα, εικόνες ή ακόμα και λίστες σύνδεσης, μπορούν
να φτάσει στο προσβάσιμο μέρος του διαδικτύου
, όπου ο καθένας μπορεί να τα βρει με τη βοήθεια των χειριστών αναζήτησης
Google
. Και από τη στιγμή που αυτές οι πληροφορίες διαγραφούν και προστεθούν στο σύνολο δεδομένων εκπαίδευσης ενός AI, δεν υπάρχουν πολλά που μπορεί να κάνει κανείς για να τα αφαιρέσει.
«Οι άνθρωποι θα πρέπει να μπορούν να μοιράζονται ελεύθερα μια φωτογραφία χωρίς να σκέφτονται ότι θα καταλήξει να τροφοδοτεί ένα εργαλείο παραγωγής τεχνητής νοημοσύνης ή, ακόμη χειρότερα, ότι η εικόνα τους μπορεί να καταλήξει να χρησιμοποιηθεί για τη δημιουργία ενός deepfake», λέει.
Ivana Bartoletti
παγκόσμιος επικεφαλής υπεύθυνος προστασίας προσωπικών δεδομένων στην ινδική εταιρεία τεχνολογίας
Wipro
και επισκέπτης εκτελεστικός συνεργάτης στον τομέα της κυβερνοασφάλειας και της ιδιωτικής ζωής στο Pamplin College of Business της Virginia Tech. «Η απόρριψη προσωπικών δεδομένων μέσω του Διαδικτύου υπονομεύει τον έλεγχο των ανθρώπων στα δεδομένα τους».
Η απόξεση δεδομένων είναι μόνο μια δυνητικά προβληματική πηγή δεδομένων εκπαίδευσης για συστήματα τεχνητής νοημοσύνης.
Katharina Koerner
, ανώτερος συνεργάτης για τη μηχανική απορρήτου στη Διεθνή Ένωση Επαγγελματιών Προστασίας Προσωπικών Δεδομένων, λέει ότι ένα άλλο είναι η δευτερεύουσα χρήση προσωπικών δεδομένων. Αυτό συμβαίνει όταν εγκαταλείπετε οικειοθελώς ορισμένες από τις πληροφορίες σας για συγκεκριμένο σκοπό, αλλά καταλήγουν να εξυπηρετούν κάποιον άλλο στον οποίο δεν συναινέσατε. Οι επιχειρήσεις συγκεντρώνουν τις πληροφορίες των πελατών τους εδώ και χρόνια, συμπεριλαμβανομένων των διευθύνσεων ηλεκτρονικού ταχυδρομείου, των λεπτομερειών αποστολής και των ειδών προϊόντων που τους αρέσουν, αλλά στο παρελθόν δεν μπορούσαν να κάνουν πολλά με αυτά τα δεδομένα. Σήμερα, πολύπλοκοι αλγόριθμοι και πλατφόρμες τεχνητής νοημοσύνης παρέχουν έναν εύκολο τρόπο επεξεργασίας αυτών των πληροφοριών, ώστε να μπορούν να μάθουν περισσότερα για τα πρότυπα συμπεριφοράς των ανθρώπων. Αυτό μπορεί να σας ωφελήσει παρέχοντάς σας μόνο διαφημίσεις και πληροφορίες που μπορεί να σας ενδιαφέρουν πραγματικά, αλλά μπορεί επίσης να περιορίσει τη διαθεσιμότητα των προϊόντων και να αυξήσει τις τιμές ανάλογα με τον ταχυδρομικό σας κώδικα. Ο Koerner λέει ότι είναι δελεαστικό για τις επιχειρήσεις να το κάνουν αυτό, δεδομένου ότι ορισμένες ήδη χρησιμοποιούν μεγάλους σωρούς δεδομένων που παρείχαν οι πελάτες τους.
«Η τεχνητή νοημοσύνη διευκολύνει την εξαγωγή πολύτιμων μοτίβων από διαθέσιμα δεδομένα που μπορούν να υποστηρίξουν τη μελλοντική λήψη αποφάσεων, επομένως είναι πολύ δελεαστικό για τις επιχειρήσεις να χρησιμοποιούν προσωπικά δεδομένα για μηχανική εκμάθηση όταν τα δεδομένα δεν συλλέχθηκαν για αυτόν τον σκοπό», εξηγεί.
Δεν βοηθάει το γεγονός ότι είναι εξαιρετικά περίπλοκο για τους προγραμματιστές να διαγράφουν επιλεκτικά τα προσωπικά σας στοιχεία από ένα μεγάλο σύνολο δεδομένων εκπαίδευσης. Σίγουρα, μπορεί να είναι εύκολο να εξαλειφθούν συγκεκριμένα στοιχεία, όπως η ημερομηνία γέννησής σας ή ο αριθμός κοινωνικής ασφάλισης (παρακαλούμε μην παρέχετε προσωπικά στοιχεία σε μια πλατφόρμα τεχνητής νοημοσύνης που δημιουργείται). Αλλά η εκτέλεση ενός αιτήματος πλήρους διαγραφής σύμφωνα με τον Γενικό Κανονισμό για την Προστασία Δεδομένων της Ευρώπης, για παράδειγμα, είναι ένα εντελώς άλλο θηρίο και ίσως η πιο περίπλοκη πρόκληση για επίλυση, λέει ο Bartoletti.
[Related: How to stop school devices from sharing your family’s data]
Η επιλεκτική διαγραφή περιεχομένου είναι δύσκολη ακόμη και στα παραδοσιακά συστήματα πληροφορικής, χάρη στα περίπλοκά τους
δομές μικροϋπηρεσιών
, όπου κάθε τμήμα λειτουργεί ως ανεξάρτητη μονάδα. Αλλά ο Koerner λέει ότι είναι ακόμη πιο δύσκολο, αν όχι αδύνατο επί του παρόντος, στο πλαίσιο της τεχνητής νοημοσύνης.
Αυτό οφείλεται στο γεγονός ότι δεν είναι απλώς θέμα να πατήσετε “ctrl + F” και να διαγράψετε κάθε κομμάτι δεδομένων με το όνομα κάποιου – η αφαίρεση των δεδομένων ενός ατόμου θα απαιτούσε την δαπανηρή διαδικασία επανεκπαίδευσης ολόκληρου του μοντέλου από την αρχή, εξηγεί.
Θα είναι όλο και πιο δύσκολο να εξαιρεθείτε
Ένα καλά τροφοδοτημένο σύστημα τεχνητής νοημοσύνης μπορεί να παρέχει απίστευτες ποσότητες αναλύσεων, συμπεριλαμβανομένης της αναγνώρισης προτύπων που βοηθά τους χρήστες του να κατανοήσουν τη συμπεριφορά των ανθρώπων. Αλλά αυτό δεν οφείλεται μόνο στις ικανότητες της τεχνολογίας – είναι επίσης επειδή οι άνθρωποι τείνουν να συμπεριφέρονται με προβλέψιμους τρόπους. Αυτή η συγκεκριμένη πτυχή της ανθρώπινης φύσης επιτρέπει στα συστήματα AI να λειτουργούν μια χαρά χωρίς να γνωρίζουν πολλά για εσάς συγκεκριμένα. Γιατί ποιο είναι το νόημα να σε γνωρίζω όταν αρκεί να γνωρίζεις ανθρώπους σαν εσένα;
«Βρισκόμαστε στο σημείο όπου απαιτούνται ελάχιστες πληροφορίες –μόλις τρία έως πέντε κομμάτια σχετικών δεδομένων για ένα άτομο, τα οποία είναι πολύ εύκολο να συλληφθούν– και απορροφώνται αμέσως στο σύστημα πρόβλεψης», λέει η Brenda Leong. συνεργάτης στο
BNH.AI
, μια δικηγορική εταιρεία στην Ουάσιγκτον, DC που εστιάζει στους ελέγχους και στους κινδύνους τεχνητής νοημοσύνης. Εν ολίγοις: Είναι πιο δύσκολο, ίσως αδύνατο, να μείνεις εκτός συστήματος αυτές τις μέρες.
Αυτό μας αφήνει ελάχιστη ελευθερία, καθώς ακόμη και άτομα που έχουν ξεφύγει από το δρόμο τους για χρόνια για να προστατεύσουν το απόρρητό τους, θα έχουν τα μοντέλα τεχνητής νοημοσύνης να λαμβάνουν αποφάσεις και συστάσεις για αυτούς. Αυτό θα μπορούσε να τους κάνει να νιώθουν ότι όλη τους η προσπάθεια ήταν για το τίποτα.
«Ακόμα κι αν γίνεται με χρήσιμο τρόπο για μένα, όπως το να μου προσφέρει δάνεια που είναι το σωστό επίπεδο για το εισόδημά μου ή ευκαιρίες που πραγματικά θα με ενδιέφερε, το κάνει αυτό σε εμένα χωρίς να μπορώ πραγματικά να το ελέγξω τρόπο», συνεχίζει ο Leong.
Η χρήση μεγάλων δεδομένων για τη δημιουργία περιστεριών ολόκληρων ομάδων ανθρώπων δεν αφήνει επίσης χώρο για αποχρώσεις —για ακραίες τιμές και εξαιρέσεις— με τις οποίες όλοι γνωρίζουμε ότι η ζωή είναι γεμάτη. Ο διάβολος είναι στις λεπτομέρειες, αλλά είναι και στην εφαρμογή γενικευμένων συμπερασμάτων σε ειδικές περιστάσεις όπου τα πράγματα μπορεί να πάνε πολύ στραβά.
Ο οπλισμός δεδομένων
Μια άλλη κρίσιμη πρόκληση είναι πώς να ενσταλάξετε τη δικαιοσύνη στην αλγοριθμική λήψη αποφάσεων—ειδικά όταν τα συμπεράσματα ενός μοντέλου AI μπορεί να βασίζονται σε ελαττωματικά, παρωχημένα ή ελλιπή δεδομένα. Είναι γνωστό σε αυτό το σημείο ότι τα συστήματα AI μπορούν
διαιωνίζουν τις προκαταλήψεις των ανθρώπινων δημιουργών τους
ωρες ωρες
με τρομερές συνέπειες
για μια ολόκληρη κοινότητα.
Καθώς όλο και περισσότερες εταιρείες βασίζονται σε αλγόριθμους
βοηθήστε τους να καλύψουν θέσεις
ή προσδιορίστε α
προφίλ κινδύνου οδηγού
, γίνεται πιο πιθανό τα δικά μας δεδομένα να χρησιμοποιηθούν ενάντια στα δικά μας συμφέροντα. Μπορεί μια μέρα να πληγωθείτε από τις αυτοματοποιημένες αποφάσεις, συστάσεις ή προβλέψεις που κάνουν αυτά τα συστήματα, με πολύ μικρή προσφυγή.
[Related: Autonomous
weapons
could make grave errors in war]
Είναι επίσης ένα πρόβλημα όταν αυτές οι προβλέψεις ή οι ετικέτες γίνονται γεγονότα στα μάτια ενός αλγορίθμου που δεν μπορεί να διακρίνει μεταξύ αληθινού και ψευδούς. Για τη σύγχρονη τεχνητή νοημοσύνη, είναι όλα δεδομένα, είτε είναι προσωπικά, δημόσια, γεγονότα ή εξ ολοκλήρου κατασκευασμένα.
Περισσότερη ενοποίηση σημαίνει λιγότερη ασφάλεια
Ακριβώς όπως η παρουσία σας στο Διαδίκτυο είναι τόσο ισχυρή όσο και ο πιο αδύναμος κωδικός πρόσβασής σας, η ενσωμάτωση μεγάλων εργαλείων AI με άλλες πλατφόρμες παρέχει στους εισβολείς περισσότερα μάνδαλα για να αιχμαλωτίσουν όταν προσπαθούν να αποκτήσουν πρόσβαση σε ιδιωτικά δεδομένα. Μην εκπλαγείτε αν κάποιοι από αυτούς είναι
δεν ανταποκρίνεται στα πρότυπα, όσον αφορά την ασφάλεια
.
Και αυτό δεν είναι καν λαμβάνοντας υπόψη όλες τις εταιρείες και
κυβερνητικές υπηρεσίες
συλλέγοντας τα δεδομένα σας εν αγνοία σας. Σκεφτείτε το
κάμερες παρακολούθησης στη γειτονιά σας
,
λογισμικό αναγνώρισης προσώπου που σας παρακολουθεί σε έναν συναυλιακό χώρο
παιδιά που τρέχουν στο τοπικό σας πάρκο με GoPros, ακόμα και άτομα που προσπαθούν να γίνουν viral στο
TikTok
.
Όσο περισσότεροι άνθρωποι και πλατφόρμες χειρίζονται τα δεδομένα σας, τόσο πιο πιθανό είναι κάτι να πάει στραβά. Περισσότερο περιθώριο λάθους σημαίνει μεγαλύτερη πιθανότητα οι πληροφορίες σας να διαχυθούν σε όλο το διαδίκτυο, όπου θα μπορούσαν εύκολα να εγγραφούν στο σύνολο δεδομένων εκπαίδευσης ενός μοντέλου τεχνητής νοημοσύνης. Και όπως αναφέρθηκε παραπάνω, είναι τρομερά δύσκολο να αναιρεθεί.
Τι μπορείς να κάνεις
Τα κακά νέα είναι ότι δεν μπορείτε να κάνετε πολλά για κανένα από αυτά αυτή τη στιγμή—όχι για τις πιθανές απειλές ασφαλείας που προέρχονται από σύνολα δεδομένων εκπαίδευσης AI που περιέχουν τις πληροφορίες σας, ούτε για τα συστήματα πρόβλεψης που μπορεί να σας εμποδίζουν να αποκτήσετε τη δουλειά των ονείρων σας. Το καλύτερο στοίχημά μας, αυτή τη στιγμή, είναι να απαιτήσουμε ρύθμιση.
Η Ευρωπαϊκή Ένωση προχωρά ήδη εγκρίνοντας το πρώτο προσχέδιο του νόμου για την τεχνητή νοημοσύνη, το οποίο θα ρυθμίζει τον τρόπο με τον οποίο οι εταιρείες και οι κυβερνήσεις μπορούν να χρησιμοποιούν αυτήν την τεχνολογία βάσει αποδεκτών επιπέδων κινδύνου. Ο πρόεδρος των ΗΠΑ Τζο Μπάιντεν, εν τω μεταξύ, έχει χρησιμοποιήσει εκτελεστικά εντάλματα για να
χρηματοδότηση για την ανάπτυξη ηθικής και δίκαιης τεχνολογίας AI
, αλλά το Κογκρέσο δεν έχει ψηφίσει νόμο που να προστατεύει το απόρρητο των πολιτών των ΗΠΑ όταν πρόκειται για πλατφόρμες τεχνητής νοημοσύνης. Η Γερουσία έχει πραγματοποιήσει ακροάσεις για να μάθει για την τεχνολογία, αλλά δεν έχει πλησιάσει να συντάξει ένα ομοσπονδιακό νομοσχέδιο.
Καθώς η κυβέρνηση εργάζεται, μπορείτε —και πρέπει— να υποστηρίξετε τη ρύθμιση απορρήτου που περιλαμβάνει πλατφόρμες τεχνητής νοημοσύνης και προστατεύει τους χρήστες από τον λάθος χειρισμό των δεδομένων τους. Κάντε ουσιαστικές συζητήσεις με τους γύρω σας σχετικά με την ανάπτυξη της τεχνητής νοημοσύνης, βεβαιωθείτε ότι γνωρίζετε πού βρίσκονται οι εκπρόσωποί σας όσον αφορά τον ομοσπονδιακό κανονισμό περί απορρήτου και ψηφίστε όσους έχουν τα καλύτερα συμφέροντά σας στο επίκεντρο.
Διαβάστε περισσότερες ιστορίες PopSci+.


