Το μίσος που δημιουργείται από την τεχνητή νοημοσύνη αυξάνεται: 3 πράγματα που πρέπει να λάβουν υπόψη οι ηγέτες πριν υιοθετήσουν αυτήν τη νέα τεχνολογία
Related Posts
Όταν ακούτε τη φράση «τεχνητή νοημοσύνη», μπορεί να είναι δελεαστικό να φανταστείτε τα είδη των ευφυών μηχανών που αποτελούν βασικό στήριγμα της επιστημονικής φαντασίας ή τις προεκτάσεις των ειδών της αποκαλυπτικής τεχνοφοβίας που έχουν γοητεύσει την ανθρωπότητα από το τέρας του Δρ Φρανκενστάιν.
Αλλά τα είδη τεχνητής νοημοσύνης που ενσωματώνονται γρήγορα σε επιχειρήσεις σε όλο τον κόσμο δεν είναι αυτής της ποικιλίας — είναι πολύ πραγματικές τεχνολογίες που έχουν πραγματικό αντίκτυπο στους πραγματικούς ανθρώπους.
Ενώ η τεχνητή νοημοσύνη είναι ήδη παρούσα σε επιχειρηματικά περιβάλλοντα εδώ και χρόνια, η εξέλιξη των παραγωγικών προϊόντων τεχνητής νοημοσύνης όπως το ChatGPT, το ChatSonic, το Jasper AI και άλλα θα κλιμακώσει δραματικά την ευκολία χρήσης για τον μέσο άνθρωπο. Ως αποτέλεσμα, το αμερικανικό κοινό ανησυχεί βαθιά για το ενδεχόμενο κατάχρησης αυτών των τεχνολογιών. Πρόσφατο
Βρέθηκε έρευνα ADL
ότι το 84% των Αμερικανών ανησυχεί ότι η γενετική τεχνητή νοημοσύνη θα αυξήσει τη διάδοση της παραπληροφόρησης και του μίσους.
Οι ηγέτες που σκέφτονται να υιοθετήσουν αυτήν την τεχνολογία θα πρέπει να θέτουν στον εαυτό τους δύσκολες ερωτήσεις σχετικά με το πώς μπορεί να διαμορφώσει το μέλλον – τόσο για καλό όσο και για κακό – καθώς μπαίνουμε σε αυτό το νέο σύνορο. Ακολουθούν τρία πράγματα που ελπίζω να λάβουν υπόψη όλοι οι ηγέτες καθώς ενσωματώνουν εργαλεία παραγωγής τεχνητής νοημοσύνης σε οργανισμούς και χώρους εργασίας.
Κάντε την εμπιστοσύνη και την ασφάλεια κορυφαία προτεραιότητα
Ενώ τα μέσα κοινωνικής δικτύωσης έχουν συνηθίσει να αντιμετωπίζουν τον έλεγχο περιεχομένου, η γενετική τεχνητή νοημοσύνη εισάγεται σε χώρους εργασίας που δεν έχουν προηγούμενη εμπειρία στην αντιμετώπιση αυτών των ζητημάτων, όπως η υγειονομική περίθαλψη και τα οικονομικά. Πολλές βιομηχανίες μπορεί σύντομα να βρεθούν ξαφνικά αντιμέτωποι με δύσκολες νέες προκλήσεις καθώς υιοθετούν αυτές τις τεχνολογίες. Εάν είστε μια εταιρεία υγειονομικής περίθαλψης της οποίας το chatbot που λειτουργεί με τεχνητή νοημοσύνη πρώτης γραμμής είναι ξαφνικά αγενές ή ακόμα και μίσος για έναν ασθενή, πώς θα το χειριστείτε αυτό;
Παρά την ισχύ και τις δυνατότητές του, η γενετική τεχνητή νοημοσύνη καθιστά εύκολη, γρήγορη και προσιτή για τους κακούς ηθοποιούς να παράγουν επιβλαβές περιεχόμενο.
Επί δεκαετίες, οι πλατφόρμες μέσων κοινωνικής δικτύωσης έχουν αναπτύξει μια νέα πειθαρχία — εμπιστοσύνη και ασφάλεια — για να προσπαθήσουν να αντιμετωπίσουν τα ακανθώδη προβλήματα που σχετίζονται με το περιεχόμενο που δημιουργείται από τους χρήστες. Όχι τόσο με άλλες βιομηχανίες.
Για το λόγο αυτό, οι εταιρείες θα πρέπει να φέρουν ειδικούς σε θέματα εμπιστοσύνης και ασφάλειας για να μιλήσουν για την εφαρμογή τους. Θα χρειαστεί να αποκτήσουν τεχνογνωσία και να σκεφτούν τρόπους κατάχρησης αυτών των εργαλείων. Και θα χρειαστεί να επενδύσουν σε προσωπικό που είναι υπεύθυνο για την αντιμετώπιση των καταχρήσεων, ώστε να μην πιαστούν με πλατυποδία όταν αυτά τα εργαλεία καταχρώνται από κακούς ηθοποιούς.
Καθιερώστε ψηλά προστατευτικά κιγκλιδώματα και επιμείνετε στη διαφάνεια
Ειδικά σε περιβάλλον εργασίας ή εκπαίδευσης, είναι ζωτικής σημασίας οι πλατφόρμες τεχνητής νοημοσύνης να διαθέτουν επαρκή προστατευτικά κιγκλιδώματα για την πρόληψη της δημιουργίας περιεχομένου μίσους ή παρενόχλησης.
Αν και είναι απίστευτα χρήσιμα εργαλεία, οι πλατφόρμες AI δεν είναι 100% αλάνθαστες. Μέσα σε λίγα λεπτά, για παράδειγμα, οι δοκιμαστές ADL χρησιμοποίησαν πρόσφατα την εφαρμογή Expedia, με τη νέα της λειτουργία ChatGPT, για να δημιουργήσουν ένα δρομολόγιο με διάσημα πογκρόμ κατά των Εβραίων στην Ευρώπη και μια λίστα με κοντινά καταστήματα ειδών τέχνης όπου θα μπορούσε κανείς να αγοράσει φαινομενικά μπογιά με σπρέι να εμπλακούν σε βανδαλισμούς εναντίον αυτών των τοποθεσιών.
Ενώ έχουμε δει ορισμένα γενεσιουργά AI να βελτιώνουν τον χειρισμό των ερωτήσεων που μπορεί να οδηγήσουν σε αντισημιτικές και άλλες αποκρουστικές απαντήσεις, έχουμε δει άλλα
υπολείπονται
όταν διασφαλίζεται ότι δεν θα συμβάλλουν στη διάδοση μίσους, παρενόχλησης, θεωριών συνωμοσίας και άλλων τύπων επιβλαβούς περιεχομένου.
Πριν υιοθετήσουν ευρέως την τεχνητή νοημοσύνη, οι ηγέτες θα πρέπει να κάνουν κρίσιμες ερωτήσεις, όπως: Τι είδους δοκιμές γίνονται για να διασφαλιστεί ότι αυτά τα προϊόντα δεν είναι ανοιχτά σε κατάχρηση; Ποια σύνολα δεδομένων χρησιμοποιούνται για την κατασκευή αυτών των μοντέλων; Και οι εμπειρίες των κοινοτήτων που στοχεύουν περισσότερο το διαδικτυακό μίσος ενσωματώνονται στη δημιουργία αυτών των εργαλείων;
Χωρίς διαφάνεια από τις πλατφόρμες, απλά δεν υπάρχει καμία εγγύηση ότι αυτά τα μοντέλα τεχνητής νοημοσύνης δεν επιτρέπουν τη διάδοση προκατάληψης ή φανατισμού.
Προστασία έναντι οπλισμού
Ακόμη και με ισχυρές πρακτικές εμπιστοσύνης και ασφάλειας, η τεχνητή νοημοσύνη εξακολουθεί να μπορεί να γίνει κατάχρηση από απλούς χρήστες. Ως ηγέτες, πρέπει να ενθαρρύνουμε τους σχεδιαστές συστημάτων τεχνητής νοημοσύνης να οικοδομήσουν μέτρα προστασίας κατά της ανθρώπινης όπλα.
Δυστυχώς, παρ’ όλη τη δύναμή τους και τις δυνατότητές τους, τα εργαλεία τεχνητής νοημοσύνης καθιστούν εύκολο, γρήγορο και προσιτό για τους κακούς ηθοποιούς να παράγουν περιεχόμενο για οποιοδήποτε από αυτά τα σενάρια. Μπορούν να παράγουν πειστικές ψεύτικες ειδήσεις, να δημιουργήσουν οπτικά συναρπαστικά deepfakes και να διαδώσουν μίσος και παρενόχληση μέσα σε λίγα δευτερόλεπτα. Το περιεχόμενο που δημιουργείται από την τεχνητή νοημοσύνη θα μπορούσε επίσης να συμβάλει στη διάδοση εξτρεμιστικών ιδεολογιών — ή να χρησιμοποιηθεί για τη ριζοσπαστικοποίηση ευπαθών ατόμων.
Ως απάντηση σε αυτές τις απειλές, οι πλατφόρμες τεχνητής νοημοσύνης θα πρέπει να ενσωματώνουν ισχυρά συστήματα μετριοπάθειας που μπορούν να αντέξουν τον πιθανό κατακλυσμό επιβλαβούς περιεχομένου που μπορεί να δημιουργήσουν οι δράστες χρησιμοποιώντας αυτά τα εργαλεία.
Το Generative AI έχει σχεδόν απεριόριστες δυνατότητες να βελτιώσει τις ζωές και να φέρει επανάσταση στον τρόπο με τον οποίο επεξεργαζόμαστε τον ατελείωτο όγκο πληροφοριών που διατίθενται στο διαδίκτυο. Είμαι ενθουσιασμένος για τις προοπτικές για ένα μέλλον με AI, αλλά μόνο με υπεύθυνη ηγεσία.

