Πολλοί έχουν περιγράψει
Το 2023 ως έτος της τεχνητής νοημοσύνης και ο όρος έκανε αρκετές λίστες με τις λέξεις της χρονιάς. Αν και έχει επηρεάσει θετικά την παραγωγικότητα και την αποδοτικότητα στον χώρο
εργασία
ς, η τεχνητή νοημοσύνη έχει επίσης παρουσιάσει έναν αριθμό αναδυόμενων κινδύνων για τις επιχειρήσεις.
Για παράδειγμα, ένα πρόσφατο
Έρευνα Harris Poll
που ανατέθηκε από το AuditBoard αποκάλυψε ότι περίπου οι μισοί εργαζόμενοι Αμερικανοί (51%) χρησιμοποιούν επί
του
παρόντος εργαλεία με τεχνητή νοημοσύνη για εργασία, αναμφίβολα με γνώμονα το ChatGPT και άλλες παραγωγικές λύσεις τεχνητής νοημοσύνης. Την ίδια στιγμή, ωστόσο, σχεδόν οι μισοί (48%) δήλωσαν ότι εισάγουν εταιρικά δεδομένα σε εργαλεία τεχνητής νοημοσύνης που δεν παρέχονται από την επιχείρησή τους για να τους βοηθήσουν στην εργασία τους.
Αυτή η ταχεία ενοποίηση των εργαλείων τεχνητής νοημοσύνης που δημιουργούνται στην εργασία παρουσιάζει ηθικές, νομικές, ιδιωτικές και πρακτικές προ
κλήσεις
, δημιουργώντας την ανάγκη για τις επιχειρήσεις να εφαρμόσουν νέες και ισχυρές πολιτικές που αφορούν τα εργαλεία παρ
αγωγή
ς τεχνητής νοημοσύνης. Ως έχει, οι περισσότεροι δεν το έχουν κάνει ακόμη – μια πρόσφατη Gartner
επισκόπηση
αποκάλυψε ότι περισσότεροι από τους μισούς οργανισμούς στερούνται εσωτερικής πολιτικής για τη γενετική τεχνητή νοημοσύνη και η δημοσκόπηση Harris διαπίστωσε ότι μόνο το 37% των απασχολουμένων Αμερικανών έχει επίσημη πολιτική σχετικά με τη χρήση εργαλείων τεχνητής νοημοσύνης που δεν παρέχονται από την εταιρεία.
Αν και μπορεί να ακούγεται σαν αποθαρρυντικό έργο, η ανάπτυξη ενός συνόλου πολιτικών και προτύπων τώρα μπορεί να σώσει τους οργανισμούς από σοβαρούς πονοκεφάλους στο δρόμο.
Χρήση και διακυβέρνηση AI: Κίνδυνοι και προκλήσεις
Η ανάπτυξη ενός συνόλου πολιτικών και προτύπων τώρα μπορεί να σώσει τους οργανισμούς από σοβαρούς πονοκεφάλους στο δρόμο.
Η ταχεία υιοθέτηση του Generative AI έχει δυσκολέψει τις επιχειρήσεις να συμβαδίζουν με τη διαχείριση κινδύνου και τη διακυβέρνηση της τεχνητής νοημοσύνης και υπάρχει μια σαφής αποσύνδεση μεταξύ της υιοθέτησης και των επίσημων πολιτικών. Η δημοσκόπηση Harris που αναφέρθηκε προηγουμένως διαπίστωσε ότι το 64% αντιλαμβάνεται τη χρήση εργαλείων τεχνητής νοημοσύνης ως ασφαλή, υποδεικνύοντας ότι πολλοί εργαζόμενοι και οργανισμοί μπορεί να παραβλέπουν τους κινδύνους.
Αυτοί οι κίνδυνοι και οι προκλήσεις μπορεί να ποικίλλουν, αλλά τρεις από τους πιο συνηθισμένους περιλαμβάνουν:
-
Υπερβολική αυτοπεποίθηση.
Το φαινόμενο Dunning–Kruger είναι μια προκατάληψη που εμφανίζεται όταν οι γνώσεις ή οι ικανότητές μας υπερεκτιμώνται. Έχουμε δει αυτό να εκδηλώνεται σε σχέση με τη χρήση της τεχνητής νοημοσύνης. Πολλοί υπερεκτιμούν τις δυνατότητες της τεχνητής νοημοσύνης χωρίς να κατανοούν τους περιορισμούς της. Αυτό θα μπορούσε να παράγει σχετικά αβλαβή αποτελέσματα, όπως η παροχή ελλιπών ή ανακριβών αποτελεσμάτων, αλλά θα μπορούσε επίσης να οδηγήσει σε πολύ πιο σοβαρές καταστάσεις, όπως παραγωγή που παραβιάζει τους νομικούς περιορισμούς χρήσης ή δημιουργεί κίνδυνο πνευματικής ιδιοκτησίας. -
Ασφάλεια
και ιδιωτικότητα.
Η τεχνητή νοημοσύνη χρειάζεται πρόσβαση σε μεγάλους όγκους δεδομένων για πλήρη αποτελεσματικότητα, αλλά μερικές φορές αυτό περιλαμβάνει προσωπικά δεδομένα ή άλλες ευαίσθητες πληροφορίες. Υπάρχουν εγγενείς κίνδυνοι που συνοδεύουν τη χρήση εργαλείων τεχνητής νοημοσύνης χωρίς έλεγχο, επομένως οι οργανισμοί πρέπει να διασφαλίσουν ότι χρησιμοποιούν εργαλεία που πληρούν τα πρότυπα ασφαλείας δεδομένων τους.
VIA:
techcrunch.com

