Meredith Whittaker της Signal: Το AI είναι θεμελιωδώς «μια τεχνολογία επιτήρησης»
Γιατί τόσες πολλές εταιρείες που βασίζονται στη δημιουργία εσόδων από τα δεδομένα των χρηστών τους φαίνεται να είναι εξαιρετικά καυτές στο AI; Αν ρωτήσετε την πρόεδρο της
Signal
Meredith Whittaker (και το έκανα), θα σας πει ότι συμβαίνει απλώς και μόνο επειδή «το AI είναι μια τεχνολογία επιτήρησης».
Επί σκηνής στο TechCrunch Disrupt 2023
, η Whittaker εξήγησε την άποψή της ότι η
τεχνητή νοημοσύνη
είναι σε μεγάλο βαθμό αδιαχώριστη από τη βιομηχανία μεγάλων δεδομένων και στόχευσης που διαιωνίζεται από εταιρείες όπως η Google και η Meta, καθώς και οι λιγότερο επικεντρωμένες στον καταναλωτή αλλά εξίσου εξέχουσες
επιχειρήσεις
και αμυντικές εταιρείες. (Οι παρατηρήσεις της ήταν ελαφρώς επεξεργασμένες για σαφήνεια.)
«Απαιτεί το επιχειρηματικό μοντέλο επιτήρησης. είναι μια έξαρση αυτού που έχουμε δει από τα τέλη της δεκαετίας του ’90 και την ανάπτυξη της διαφήμισης παρακολούθησης. Η τεχνητή νοημοσύνη είναι ένας τρόπος, νομίζω, να εδραιωθεί και να επεκταθεί το επιχειρηματικό μοντέλο επιτήρησης», είπε. «Το διάγραμμα Venn είναι ένας κύκλος».
«Και η χρήση της τεχνητής νοημοσύνης είναι επίσης εποπτική, σωστά;» συνέχισε εκείνη. «Ξέρεις, περνάς μπροστά από μια κάμερα αναγνώρισης προσώπου που είναι εξοπλισμένη με ψευδο-επιστημονική αναγνώριση συναισθημάτων και παράγει δεδομένα για σένα, σωστά ή λάθος, που λένε «είσαι χαρούμενος, είσαι λυπημένος, έχεις κακό χαρακτήρα, είσαι». είσαι ψεύτης, οτιδήποτε. Αυτά είναι τελικά συστήματα επιτήρησης που διατίθενται στο εμπόριο σε όσους έχουν εξουσία πάνω μας γενικά: τους εργοδότες μας, τις κυβερνήσεις, τον έλεγχο των συνόρων κ.λπ., για να κάνουμε προσδιορισμούς και προβλέψεις που θα διαμορφώσουν την πρόσβασή μας σε πόρους και ευκαιρίες».
Κατά ειρωνικό τρόπο, επεσήμανε, τα δεδομένα που αποτελούν τη βάση αυτών των συστημάτων οργανώνονται συχνά και σχολιάζονται (ένα απαραίτητο βήμα στη διαδικασία συναρμολόγησης δεδομένων AI) από τους ίδιους τους εργαζόμενους στους οποίους μπορεί να απευθύνεται.
«Δεν υπάρχει τρόπος να γίνουν αυτά τα συστήματα χωρίς ανθρώπινη
εργασία
στο επίπεδο της πληροφόρησης της βασικής αλήθειας των δεδομένων – ενισχυτική μάθηση με ανθρώπινη ανατροφοδότηση, η οποία και πάλι είναι απλώς ένα είδος τεχνολογικής πλύσης επισφαλούς ανθρώπινης εργασίας. Είναι χιλιάδες και χιλιάδες εργαζόμενοι που πληρώνονται πολύ λίγο, αν και μαζικά είναι πολύ ακριβό, και δεν υπάρχει άλλος τρόπος να δημιουργηθούν αυτά τα συστήματα, τελεία», εξήγησε. «Κατά κάποιο τρόπο αυτό που βλέπουμε είναι ένα είδος φαινομένου του Μάγου του Οζ, όταν τραβάμε την κουρτίνα, δεν υπάρχει και τόσο έξυπνο».
Ωστόσο, δεν είναι όλα τα συστήματα τεχνητής νοημοσύνης και μηχανικής μάθησης εξίσου εκμεταλλευτικά. Όταν ρώτησα εάν η Signal χρησιμοποιεί εργαλεία ή διεργασίες τεχνητής νοημοσύνης στην εφαρμογή ή στις εργασίες ανάπτυξης, επιβεβαίωσε ότι η εφαρμογή έχει ένα «μικρό μοντέλο στη
συσκευή
που δεν αναπτύξαμε εμείς, το χρησιμοποιούμε εκτός ραφιού, ως μέρος του προσώπου λειτουργία θαμπώματος στο σύνολο εργαλείων επεξεργασίας πολυμέσων. Στην πραγματικότητα δεν είναι τόσο καλό… αλλά βοηθά στην ανίχνευση προσώπων στις φωτογραφίες του πλήθους και στη θόλωση τους, έτσι ώστε όταν τα μοιράζεστε στα μέσα κοινωνικής δικτύωσης να μην αποκαλύπτετε τα προσωπικά βιομετρικά δεδομένα των ανθρώπων, για παράδειγμα, στο Clearview».
«Αλλά εδώ είναι το θέμα. Όπως… ναι, αυτή είναι μια εξαιρετική χρήση της τεχνητής νοημοσύνης και αυτό δεν μας αποζημιώνει από όλη αυτή την αρνητικότητα που έχω πετάξει στη σκηνή», πρόσθεσε. «Σίγουρα, αν αυτή ήταν η μόνη αγορά για την αναγνώριση προσώπου… αλλά ας είμαστε ξεκάθαροι. Τα οικονομικά κίνητρα που οδηγούν την πολύ δαπανηρή διαδικασία ανάπτυξης και ανάπτυξης της τεχνολογίας αναγνώρισης προσώπου δεν θα άφηναν ποτέ αυτό να είναι η μόνη χρήση».
