Η Big Tech μας προειδοποιεί ήδη για προβλήματα απορρήτου AI

Έτσι, η Apple έχει περιορίσει τη χρήση του ChatGPT του OpenAI και του Copilot της Microsoft,


Η Wall Street Journal

Αναφορές

. Το ChatGPT βρίσκεται στη λίστα απαγόρευσης εδώ και μήνες,

Bloomberg

‘μικρό

προσθέτει ο Mark Gurman

.

Δεν είναι μόνο η Apple, αλλά και

Samsung

και

Verizon

στον τεχνολογικό κόσμο και

a who’s who των τραπεζών

(Bank of America, Citi, Deutsche Bank, Goldman, Wells Fargo και JPMorgan). Αυτό οφείλεται στην πιθανότητα διαφυγής εμπιστευτικών δεδομένων. σε κάθε περίπτωση, του ChatGPT

η πολιτική απορρήτου λέει ρητά

Οι προτροπές σας μπορούν να χρησιμοποιηθούν για την εκπαίδευση των μοντέλων της, εκτός και αν εξαιρεθείτε. Ο φόβος για διαρροές δεν είναι αβάσιμος: τον Μάρτιο, ένα σφάλμα στο ChatGPT

αποκάλυψε δεδομένα από άλλους χρήστες

.

Υπάρχει κόσμος όπου η Disney θα ήθελε να αφήσει τα spoilers της Marvel να διαρρεύσουν;

Έχω την τάση να θεωρώ αυτές τις απαγορεύσεις ως μια πολύ δυνατή προειδοποιητική βολή.

Μία από τις προφανείς χρήσεις αυτής της τεχνολογίας είναι η εξυπηρέτηση πελατών, ένα μέρος που οι εταιρείες προσπαθούν να ελαχιστοποιήσουν το κόστος. Αλλά για να λειτουργήσει η εξυπηρέτηση πελατών, οι πελάτες πρέπει να εγκαταλείψουν τα στοιχεία τους — άλλοτε προσωπικά, άλλοτε ευαίσθητα. Πώς σχεδιάζουν οι εταιρείες να εξασφαλίσουν τα bots εξυπηρέτησης πελατών τους;

Αυτό δεν είναι πρόβλημα μόνο για την εξυπηρέτηση πελατών. Ας πούμε ότι η Disney αποφάσισε να αφήσει την τεχνητή νοημοσύνη —

αντί για τμήματα VFX

— γράψτε τις ταινίες της Marvel. Υπάρχει κόσμος όπου η Disney θα ήθελε να αφήσει τα spoilers της Marvel να διαρρεύσουν;

Ένα από τα πράγματα που είναι

γενικά

αλήθεια για τον κλάδο της τεχνολογίας είναι ότι οι εταιρείες πρώιμου σταδίου — όπως μια νεότερη επανάληψη

Facebook

, για παράδειγμα — μην δίνετε μεγάλη προσοχή στην ασφάλεια των δεδομένων. Σε αυτή την περίπτωση, είναι λογικό να περιοριστεί η έκθεση σε ευαίσθητα υλικά, όπως

Το ίδιο το OpenAI σας προτείνει να το κάνετε

. (“Παρακαλώ μην μοιράζεστε ευαίσθητες πληροφορίες στις συνομιλίες σας.”) Αυτό δεν είναι πρόβλημα που αφορά συγκεκριμένα την τεχνητή νοημοσύνη.

Είναι πιθανό αυτές οι μεγάλες, έξυπνες, εστιασμένες στη μυστικότητα εταιρείες να είναι απλώς παρανοϊκές

Αλλά είμαι περίεργος για το αν υπάρχουν εγγενή προβλήματα με τα chatbot AI. Ένα από τα έξοδα που συνεπάγεται η τεχνητή νοημοσύνη είναι ο υπολογισμός. Η δημιουργία του δικού σας κέντρου δεδομένων είναι δαπανηρή, αλλά η χρήση υπολογιστικού νέφους σημαίνει ότι τα ερωτήματά σας υποβάλλονται σε επεξεργασία σε έναν απομακρυσμένο διακομιστή, όπου βασίζεστε ουσιαστικά σε κάποιον άλλον για την προστασία των δεδομένων σας. Μπορείτε να δείτε γιατί οι τράπεζες μπορεί να φοβούνται εδώ — τα οικονομικά δεδομένα είναι απίστευτα ευαίσθητα.

Εκτός από τυχαίες δημόσιες διαρροές, υπάρχει επίσης η πιθανότητα εσκεμμένης εταιρικής κατασκοπείας. Εκ πρώτης όψεως, αυτό μοιάζει περισσότερο με ένα ζήτημα της βιομηχανίας τεχνολογίας – σε τελική ανάλυση, η κλοπή εμπορικών μυστικών είναι ένας από τους κινδύνους εδώ. Αλλά οι εταιρείες Big Tech προχώρησαν στη ροή, οπότε αναρωτιέμαι αν αυτό δεν είναι επίσης πρόβλημα για το δημιουργικό τέλος των πραγμάτων.

Υπάρχει πάντα μια ώθηση ανάμεσα στο απόρρητο και τη χρησιμότητα όταν πρόκειται για προϊόντα τεχνολογίας. Σε πολλές περιπτώσεις – για παράδειγμα, αυτή της Google και του Facebook – οι χρήστες έχουν ανταλλάξει το απόρρητό τους με δωρεάν προϊόντα. της Google

Ο Bard δηλώνει ρητά ότι θα χρησιμοποιηθούν ερωτήματα

για τη «βελτίωση και ανάπτυξη προϊόντων, υπηρεσιών και τεχνολογιών μηχανικής μάθησης της Google».

Είναι πιθανό αυτές οι μεγάλες, έξυπνες, εστιασμένες στη μυστικότητα εταιρείες να είναι απλώς παρανοϊκές και δεν υπάρχει τίποτα να ανησυχείτε. Αλλά ας πούμε ότι έχουν δίκιο. Αν ναι, μπορώ να σκεφτώ μερικές δυνατότητες για το μέλλον των chatbots AI. Το πρώτο είναι ότι το κύμα AI αποδεικνύεται ότι είναι ακριβώς όπως το metaverse:

ένας μη εκκινητής

. Το δεύτερο είναι ότι οι εταιρείες τεχνητής νοημοσύνης πιέζονται να αναθεωρήσουν και να περιγράψουν ξεκάθαρα τις πρακτικές ασφαλείας. Το τρίτο είναι ότι κάθε εταιρεία που θέλει να χρησιμοποιήσει την τεχνητή νοημοσύνη πρέπει να δημιουργήσει το δικό της ιδιόκτητο μοντέλο ή, τουλάχιστον, να εκτελέσει τη δική της επεξεργασία, η οποία ακούγεται ξεκαρδιστικά ακριβή και δύσκολη στην κλίμακα. Και το τέταρτο είναι ένας διαδικτυακός εφιάλτης απορρήτου, όπου η αεροπορική σας εταιρεία (ή

εισπράκτορες οφειλών

φαρμακείο ή οποιοσδήποτε άλλος) διαρρέει τα δεδομένα σας σε τακτική βάση.

Δεν ξέρω πώς ξεφεύγει αυτό. Αλλά αν οι εταιρείες που είναι οι πιο εμμονικές με την ασφάλεια κλειδώνουν τη χρήση της τεχνητής νοημοσύνης τους, μπορεί να υπάρχει καλός λόγος να το κάνουμε και εμείς οι υπόλοιποι.


theverge.com



You might also like


Leave A Reply



Cancel Reply

Your email address will not be published.