Πριν χρησιμοποιήσετε την τεχνητή νοημοσύνη στην εργασία: 5 ερωτήσεις για τον εαυτό σας
Αν και η εποχή των αισθανόμενων βοηθών ρομπότ δεν έχει φτάσει ακόμα, η τεχνητή νοημοσύνη κάνει γρήγορα μια προσπάθεια να γίνει ο επόμενος συνάδελφός σας.
Περισσότεροι από τους μισούς εργαζόμενους στις
ΗΠΑ
είναι
τώρα χρησιμοποιούν κάποια μορφή AI στις δουλειές τους
. Σύμφωνα με έναν
διεθνής έρευνα
από 5.000 υπαλλήλους του Οργανισμού Οικονομικής Συνεργασίας και Ανάπτυξης (ΟΟΣΑ), περίπου το 80 τοις εκατό των χρηστών τεχνητής νοημοσύνης ανέφεραν ότι η τεχνητή νοημοσύνη είχε βελτιώσει την απόδοσή τους στην εργασία, υποδεικνύοντας σε μεγάλο βαθμό την αυξημένη αυτοματοποίηση. Για κάποιους, η ηθική ενσωμάτωση της τεχνητής νοημοσύνης είναι
η κορυφαία ανησυχία στο χώρο εργασίας
του 2024.
Όμως, ενώ οι υποστηρικτές σημειώνουν πόσες δυνατότητες υπάρχουν για τις τεχνολογίες τεχνητής νοημοσύνης για τη βελτίωση και τον εξορθολογισμό πιο δίκαιων χώρων εργασίας – και πιθανώς υπάρχουν παραδείγματα τεχνητής νοημοσύνης που ήδη παίζουν στη δουλειά σας, αυτό δεν σημαίνει ότι όλοι θα πρέπει να βιαστούμε να φέρουμε την τεχνητή νοημοσύνη στη δουλειά μας. δουλειά.
ΔΕΙΤΕ ΕΠΙΣΗΣ:
Η εποχή του διαδικτύου που δημιουργείται από την τεχνητή νοημοσύνη είναι ήδη εδώ
Η ίδια έρευνα του ΟΟΣΑ τεκμηρίωσε επίσης τον συνεχή φόβο
απώλεια θέσεων εργασίας και μείωση μισθών
καθώς η τεχνητή νοημοσύνη σκάβει τα τακούνια της βαθύτερα στο τοπίο της απασχόλησης. ΕΝΑ
διαφορετική έρευνα
των εργαζομένων στις ΗΠΑ από το CNBC και το SurveyMonkey ανέφεραν ότι το 42 τοις εκατό των εργαζομένων ανησυχούν για τον αντίκτυπο της τεχνητής νοημοσύνης στην εργασία τους, στριμωγμένοι υψηλότερα για εκείνους με χαμηλότερα εισοδήματα και για τους έγχρωμους εργαζόμενους.
Και με την άνοδο του
Απάτες που βασίζονται σε AI
συνεχιζόμενη συζήτηση τελείωσε
κανονισμός κυβέρνησης
και ανησυχεί για
διαδικτυακό απόρρητο
(για να μην αναφέρουμε τον απόλυτο υπερβολικό κορεσμό των “νέων” εκδόσεων τεχνητής νοημοσύνης), υπάρχουν ακόμα πολλά άγνωστα όσον αφορά το μέλλον της τεχνητής νοημοσύνης.
Είναι καλύτερο να μπείτε στον κόσμο της τεχνητής νοημοσύνης στη δουλειά με λίγη τρόμο — ή τουλάχιστον με μερικές ερωτήσεις στην πίσω τσέπη σας.
Για τι είδους AI μιλάμε, ακριβώς;
Πρώτο βήμα: Εξοικειωθείτε γενικά με την τεχνητή νοημοσύνη. Καθώς ο όρος έχει αυξηθεί σε δημοφιλή χρήση, η “Τεχνητή Νοημοσύνη” έχει εξελιχθεί σε μια φράση που αναφέρεται περισσότερο σε μια ποικιλία τεχνολογιών και υπηρεσιών παρά σε ένα συγκεκριμένο ουσιαστικό.
Η Cecily Mauran του Mashable ορίζει την τεχνητή νοημοσύνη ως «ένα γενικό όρο για την τεχνολογία που μπορεί να αυτοματοποιήσει ή να εκτελέσει ορισμένες εργασίες σχεδιασμένες από έναν άνθρωπο». Σημειώνει ότι αυτό που πολλοί αναφέρουν τώρα ως AI είναι στην πραγματικότητα κάτι πιο συγκεκριμένο, γνωστό ως γενετικό AI ή τεχνητή γενική νοημοσύνη. Το Generative AI, εξηγεί ο Mauran, είναι σε θέση να “δημιουργεί κείμενο, εικόνες, βίντεο, ήχο και κώδικα βάσει των προτροπών ενός χρήστη”. Αυτή η χρήση έχει δεχθεί πρόσφατα πυρκαγιά για την παραγωγή ψευδαισθήσεων (ή επινόηση γεγονότων), τη διάδοση παραπληροφόρησης και τη διευκόλυνση απάτης και απομιμήσεων.
ΔΕΙΤΕ ΕΠΙΣΗΣ:
Το απόλυτο γλωσσάρι τεχνητής νοημοσύνης που θα σας βοηθήσει να πλοηγηθείτε στον μεταβαλλόμενο κόσμο μας
Άλλες μορφές τεχνητής νοημοσύνης περιλαμβάνουν απλούς αλγόριθμους συστάσεων, πιο σύνθετους αλγόριθμους γνωστούς ως νευρωνικά δίκτυα και ευρύτερη μηχανική
μάθηση
.
Όπως αναφέρει η Saira Meuller για το Mashable,
Η τεχνητή νοημοσύνη έχει ήδη ενσωματωθεί στον χώρο εργασίας
(και τη ζωή σας) με πολλούς τρόπους, συμπεριλαμβανομένων των προγνωστικών δυνατοτήτων του Gmail, του συστήματος συστάσεων του LinkedIn και της σειράς εργαλείων του Office της Microsoft.
Τα απλά πράγματα όπως οι ζωντανές μεταγραφές ή οι υπότιτλοι που ενεργοποιούνται κατά τη διάρκεια βιντεοσυσκέψεων βασίζονται στην τεχνητή νοημοσύνη. Θα μπορούσατε επίσης να το συναντήσετε με τη μορφή αλγορίθμων που διευκολύνουν τη συλλογή δεδομένων, σε βοηθούς φωνής στις προσωπικές σας
συσκευές
ή λογισμικό γραφείου ή ακόμα και ως μηχανική εκμάθηση που προσφέρει προτάσεις ορθογραφίας ή μεταφράσεις γλώσσας.
Η εταιρεία σας έχει πολιτική τεχνητής νοημοσύνης;
Μόλις διαπιστώσετε ότι το εργαλείο τεχνητής νοημοσύνης δεν εμπίπτει σε μια περίπτωση χρήσης που χρησιμοποιείται ήδη στην καθημερινή σας εργασία και, επομένως, μπορεί να χρειαστεί κάποια περαιτέρω επίβλεψη, ήρθε η ώρα να απευθυνθείτε στη διοίκηση. Καλύτερα ασφαλές παρά συγγνώμη!
Η εταιρεία σας ελπίζουμε ότι θα έχει κατευθυντήριες γραμμές για το τι ακριβώς είδους υπηρεσίες τεχνητής νοημοσύνης μπορούν να χρησιμοποιηθούν στην εργασία σας και πώς θα πρέπει να χρησιμοποιηθούν, αλλά υπάρχει μεγάλη πιθανότητα να μην το κάνει — μια έρευνα του 2023 από το Conference Board διαπίστωσε ότι
Τα τρία τέταρτα των εταιρειών εξακολουθούσαν να στερούνται οργανωτικής πολιτικής τεχνητής νοημοσύνης
. Εάν δεν υπάρχουν κανόνες, λάβετε σαφήνεια από τον προϊστάμενό σας και ενδεχομένως ακόμη και από νομικές ομάδες ή ομάδες ανθρώπινων πόρων, ανάλογα με την τεχνολογία που χρησιμοποιείτε.
Χρησιμοποιήστε μόνο εργαλεία δημιουργίας τεχνητής νοημοσύνης που έχουν προεγκριθεί από τον χώρο εργασίας σας.
Σε ένα
παγκόσμια έρευνα
των εργαζομένων από την πλατφόρμα διαχείρισης επιχειρήσεων Salesforce, το 28 τοις εκατό των εργαζομένων δήλωσε ότι ενσωματώνει εργαλεία παραγωγής τεχνητής νοημοσύνης στην εργασία τους, αλλά μόνο το 30 τοις εκατό είχε λάβει εκπαίδευση σχετικά με τη χρήση του εργαλείου κατάλληλα και ηθικά. Ένα εκπληκτικό 64 τοις εκατό των 7.000 εργαζομένων ανέφεραν ότι πέρασαν τη γενετική εργασία της τεχνητής νοημοσύνης ως δική τους.
Με βάση το ποσοστό ανταπόκρισης της χρήσης χωρίς επίβλεψη, η ομάδα έρευνας συνέστησε στους εργαζόμενους να χρησιμοποιούν μόνο εργαλεία και προγράμματα τεχνητής νοημοσύνης που έχουν εγκριθεί από την εταιρεία και να μην χρησιμοποιούν ποτέ εμπιστευτικά εταιρικά δεδομένα ή προσωπικά αναγνωρίσιμα δεδομένα πελατών σε προτροπές για γενετική τεχνητή νοημοσύνη.
Ακόμη και μεγάλες εταιρείες όπως η Apple και η Google έχουν απαγορεύσει τη χρήση γενετικής τεχνητής νοημοσύνης στο παρελθόν.
Πράγματα που πρέπει να λάβετε υπόψη πριν χρησιμοποιήσετε ένα εργαλείο δημιουργίας τεχνητής νοημοσύνης:
-
Ιδιωτικότητα δεδομένων
. Εάν χρησιμοποιείτε γενετική τεχνητή νοημοσύνη, τι είδους πληροφορίες συνδέετε στο εργαλείο, όπως ένα chatbot ή άλλο LLM; Είναι αυτές οι πληροφορίες ευαίσθητες σε άτομα με τα οποία συνεργάζεστε ή είναι αποκλειστικές για την εργασία σας; Είναι τα δεδομένα κρυπτογραφημένα ή προστατευμένα με οποιονδήποτε τρόπο όταν χρησιμοποιούνται από το AI; -
Ζητήματα πνευματικών δικαιωμάτων.
Εάν χρησιμοποιείτε ένα σύστημα παραγωγής τεχνητής νοημοσύνης για να σχεδιάσετε δημιουργικές ιδέες, πού προμηθεύεται η τεχνολογία τα καλλιτεχνικά δεδομένα που απαιτούνται για την εκπαίδευση του μοντέλου της; Έχετε νόμιμο δικαίωμα να χρησιμοποιείτε τις εικόνες, το βίντεο ή τον ήχο που δημιουργεί η τεχνητή νοημοσύνη; -
Ακρίβεια
. Έχετε ελέγξει τις πληροφορίες που παρέχονται από το εργαλείο AI ή έχετε εντοπίσει παραισθήσεις; Η τεχνολογία έχει τη φήμη της ανακρίβειας;
ΔΕΙΤΕ ΕΠΙΣΗΣ:
Τι να μην μοιραστείτε με το ChatGPT εάν το χρησιμοποιείτε για εργασία
Ποιον θα εξυπηρετούσε το AI;
Είναι επίσης σημαντικό να διακρίνετε πού ταιριάζει η τεχνητή νοημοσύνη στην καθημερινή ροή εργασίας σας και ποιος θα αλληλεπιδρά με τυχόν παραγωγικές
εξόδους
τεχνητής νοημοσύνης. Υπάρχει διαφορά μεταξύ της ενσωμάτωσης εργαλείων τεχνητής νοημοσύνης, όπως chatbots ή βοηθών στις δικές σας καθημερινές εργασίες, και της αντικατάστασης μιας ολόκληρης εργασίας με αυτήν. Ποιος θα επηρεαστεί από τη χρήση της τεχνητής νοημοσύνης από εσάς και θα μπορούσε να είναι α
κίνδυνο για εσάς ή τους πελάτες σας
? Η αποκάλυψη της χρήσης AI είναι ακόμη ένα ερώτημα
τα δικηγορικά γραφεία δεν έχουν σαφείς απαντήσεις
αλλά α
πλειοψηφία των Αμερικανών
πιστεύουν ότι οι εταιρείες πρέπει να έχουν εντολή να το κάνουν.
Πράγμα που πρέπει να λάβετε υπόψη:
-
Χρησιμοποιείτε ένα εργαλείο τεχνητής νοημοσύνης για να δημιουργήσετε ιδέες αποκλειστικά για τη δική σας διαδικασία καταιγισμού ιδεών;
-
Η χρήση της τεχνητής νοημοσύνης έχει ως αποτέλεσμα τη λήψη αποφάσεων για εσάς, τους συναδέλφους σας ή τους πελάτες σας; Είναι συνηθισμένο
παρακολούθηση, παρακολούθηση ή αξιολόγηση εργαζομένων
? -
Θα είναι ορατό το περιεχόμενο που δημιουργείται από AI από πελάτες ή οποιονδήποτε εκτός της εταιρείας; Εάν αυτό τους αποκαλυφθεί, και
πως
?
Ποιος είναι υπεύθυνος για την AI;
Έχετε πάρει το πράσινο φως από την εταιρεία σας και καταλαβαίνετε τον τύπο της τεχνητής νοημοσύνης που χρησιμοποιείτε, αλλά τώρα πρέπει να λάβετε υπόψη ορισμένα μεγαλύτερα ηθικά ζητήματα.
Πολλοί επόπτες της τεχνητής νοημοσύνης επισημαίνουν ότι η γρήγορη βιασύνη για καινοτομία στον τομέα έχει οδηγήσει στη συγκέντρωση μερικών παικτών της μεγάλης τεχνολογίας που χρηματοδοτούν και ελέγχουν το μεγαλύτερο μέρος της ανάπτυξης της τεχνητής νοημοσύνης.
Πολιτική και ερευνητικό ινστιτούτο AI
AI Τώρα
επισημαίνει ότι αυτό θα μπορούσε να είναι πρόβλημα όταν αυτές οι εταιρείες έχουν τις δικές τους συγκρούσεις και αντιπαραθέσεις. «Τα μοντέλα τεχνητής νοημοσύνης μεγάλης κλίμακας εξακολουθούν να ελέγχονται σε μεγάλο βαθμό από εταιρείες Big Tech λόγω των τεράστιων πόρων υπολογιστών και δεδομένων που απαιτούν, και επίσης παρουσιάζουν καλά τεκμηριωμένες ανησυχίες σχετικά με τις διακρίσεις, τις ευπάθειες της ιδιωτικής ζωής και της ασφάλειας και τις αρνητικές περιβαλλοντικές επιπτώσεις», έγραψε το ινστιτούτο στο έκθεση Απριλίου 2023.
Το AI Now σημειώνει επίσης ότι πολλά λεγόμενα προϊόντα τεχνητής νοημοσύνης ανοιχτού κώδικα – μια ονομασία που σημαίνει ότι ο πηγαίος κώδικας ενός προγράμματος λογισμικού είναι διαθέσιμος και ελεύθερος για χρήση ή τροποποίηση από το κοινό – στην πραγματικότητα λειτουργούν περισσότερο σαν μαύρα κουτιά, που σημαίνει ότι οι χρήστες και οι προγραμματιστές τρίτων αποκλείονται από το να δουν την πραγματική εσωτερική λειτουργία του AI και των αλγορίθμων του. Η AI Now το αποκαλεί αυτό μια συγχώνευση προγραμμάτων ανοιχτού κώδικα με πολιτικές ανοιχτής πρόσβασης.
Ταυτόχρονα, η έλλειψη ομοσπονδιακής ρύθμισης και οι ασαφείς πολιτικές απορρήτου δεδομένων έχουν προκαλέσει ανησυχίες για την ανάπτυξη τεχνητής νοημοσύνης χωρίς παρακολούθηση. Μετά από ένα
εκτελεστικό διάταγμα για την τεχνητή νοημοσύνη
από τον Πρόεδρο Τζο Μπάιντεν, πολλές εταιρείες λογισμικού έχουν
συμφώνησε να υποβάλει δοκιμές ασφαλείας για ομοσπονδιακή επίβλεψη
πριν από την απελευθέρωση, μέρος μιας ώθησης για την παρακολούθηση της ξένης επιρροής. Αλλά οι τυποποιημένες ρυθμιστικές κατευθυντήριες γραμμές βρίσκονται ακόμη υπό ανάπτυξη.
Επομένως, μπορεί να θέλετε να λάβετε υπόψη σε ποια γραμμή της εργασίας σας βρίσκεστε, τις συνεργασίες της εταιρείας σας (ακόμα και τη δήλωση αποστολής της) και τυχόν συγκρούσεις συμφερόντων που μπορεί να επικαλύπτονται με τη χρήση προϊόντων που έχουν κατασκευαστεί από συγκεκριμένους προγραμματιστές τεχνητής νοημοσύνης.
Πράγματα που πρέπει να λάβετε υπόψη:
-
Ποιος κατασκεύασε το AI;
-
Προέρχεται από εργασία άλλης εταιρείας ή χρησιμοποιεί ένα API, όπως τα Large Language Models (LLMs) του OpenAI;
-
Η εταιρεία σας έχει κάποια αντικρουόμενη επιχείρηση με τον ιδιοκτήτη του AI;
-
Γνωρίζετε τις πολιτικές απορρήτου της εταιρείας και πώς αποθηκεύει δεδομένα που δίνονται σε εργαλεία δημιουργίας τεχνητής νοημοσύνης;
-
Συμφωνεί ο προγραμματιστής AI σε οποιοδήποτε είδος επίβλεψης;
Θα μπορούσε το AI να έχει σχετικές προκαταλήψεις;
Ακόμη και τα πιο έξυπνα AI μπορούν να αντικατοπτρίζουν τις εγγενείς προκαταλήψεις των δημιουργών τους, τους αλγόριθμους που κατασκευάζουν και τα δεδομένα από τα οποία προέρχονται. Στην ίδια έκθεση του Απριλίου, η AI Now αναφέρει ότι η σκόπιμη ανθρώπινη επίβλεψη συχνά επαναλαμβάνει αυτήν την τάση, αντί να την αποτρέπει.
«Δεν υπάρχει σαφής ορισμός του τι θα συνιστούσε «ουσιαστική» επίβλεψη και η έρευνα δείχνει ότι οι άνθρωποι που παρουσιάζονται με συμβουλές αυτοματοποιημένων εργαλείων τείνουν να επιδεικνύουν προκατάληψη αυτοματισμού ή σεβασμό στα αυτοματοποιημένα συστήματα χωρίς έλεγχο», διαπίστωσε ο οργανισμός.
Σε ένα άρθρο για
Η συζήτηση,
Ο ερευνητής τεχνολογικής ηθικής και εκπαίδευσης Casey Fielder γράφει ότι πολλές εταιρείες τεχνολογίας είναι
αγνοώντας τις κοινωνικές επιπτώσεις της χρήσης της τεχνητής νοημοσύνης
υπέρ μιας τεχνολογικής επανάστασης.
Αντί για “τεχνικό χρέος” – μια φράση που χρησιμοποιείται στην ανάπτυξη λογισμικού για να αναφερθεί στο μελλοντικό κόστος των βιαστικών λύσεων και έτσι οι απελευθερώσεις – οι λύσεις τεχνητής νοημοσύνης μπορεί να συνοδεύονται από αυτό που η ίδια αποκαλεί “ηθικό χρέος”. Ο Fielder εξηγεί ότι η επιφυλακτικότητα σχετικά με τα συστήματα τεχνητής νοημοσύνης εστιάζει λιγότερο στα
σφάλματα
και περισσότερο στις δυνατότητές του να ενισχύσει “
επιβλαβείς προκαταλήψεις και στερεότυπα
και
μαθητές που χρησιμοποιούν AI
απατηλά. Ακούμε για
ανησυχίες για το απόρρητο
,
άνθρωποι που ξεγελιούνται από την παραπληροφόρηση
,
εργασιακή εκμετάλλευση
και φόβοι για το πόσο γρήγορα
ανθρώπινες θέσεις εργασίας μπορεί να αντικατασταθούν
, για να αναφέρουμε μερικά. Αυτά τα προβλήματα δεν είναι σφάλματα λογισμικού. Η συνειδητοποίηση ότι μια τεχνολογία ενισχύει την καταπίεση ή την προκατάληψη είναι πολύ διαφορετική από την εκμάθηση ότι ένα κουμπί σε έναν ιστότοπο δεν λειτουργεί».
Ορισμένες εταιρείες που διαθέτουν αυτοματοποιημένες υπηρεσίες χρησιμοποιώντας συστήματα τεχνητής νοημοσύνης, όπως οι πάροχοι ασφάλισης υγείας που χρησιμοποιούν αλγόριθμους για τον καθορισμό της περίθαλψης ή της κάλυψης για τους ασθενείς, έχουν αντιμετωπίσει τόσο κοινωνικές όσο και νομικές προεκτάσεις. Απαντώντας σε αγωγές ασθενών που ισχυρίζονται ότι η χρήση ενός συστήματος τεχνητής νοημοσύνης συνιστούσε απάτη, η ομοσπονδιακή κυβέρνηση διευκρίνισε ότι η τεχνολογία
δεν θα μπορούσε να χρησιμοποιηθεί για τον προσδιορισμό της κάλυψης χωρίς ανθρώπινη επίβλεψη
.
Σε εκπαιδευτικά περιβάλλοντα, τόσο οι μαθητές όσο και οι δάσκαλοι έχουν κατηγορηθεί ότι χρησιμοποιούν την τεχνητή νοημοσύνη με ηθικά γκρίζους τρόπους, είτε για λογοκλοπή εργασιών είτε για άδικη τιμωρία των μαθητών με βάση αλγοριθμικές προκαταλήψεις. Αυτά τα λάθη έχουν και επαγγελματικές συνέπειες.
«Ακριβώς όπως το τεχνικό χρέος μπορεί να προκύψει από περιορισμένες δοκιμές κατά τη διάρκεια της διαδικασίας ανάπτυξης, το ηθικό χρέος προκύπτει από τη μη εξέταση πιθανών αρνητικών συνεπειών ή κοινωνικής βλάβης», γράφει ο Fielder. «Και ειδικά με το ηθικό χρέος, οι άνθρωποι που το βαρύνουν σπάνια είναι εκείνοι που το πληρώνουν τελικά».
Ενώ ο χώρος εργασίας σας μπορεί να φαίνεται να είναι πολύ χαμηλότερος σε σχέση με ένα ομοσπονδιακό σύστημα ασφάλισης υγείας ή την εκπαίδευση των μελλοντικών γενεών, εξακολουθεί να έχει σημασία τι ηθικό χρέος μπορεί να αναλαμβάνετε όταν χρησιμοποιείτε AI.
Θέματα
Τεχνητή Νοημοσύνη Κοινωνικό Καλό
var facebookPixelLoaded = false;
window.addEventListener(‘load’, function(){
document.addEventListener(‘scroll’, facebookPixelScript);
document.addEventListener(‘mousemove’, facebookPixelScript);
})
function facebookPixelScript() {
if (!facebookPixelLoaded) {
facebookPixelLoaded = true;
document.removeEventListener(‘scroll’, facebookPixelScript);
document.removeEventListener(‘mousemove’, facebookPixelScript);
!function(f,b,e,v,n,t,s){if(f.fbq)return;n=f.fbq=function(){n.callMethod?
n.callMethod.apply(n,arguments):n.queue.push(arguments)};if(!f._fbq)f._fbq=n;
n.push=n;n.loaded=!0;n.version=’2.0′;n.queue=[];t=b.createElement(e);t.async=!0;
t.src=v;s=b.getElementsByTagName(e)[0];s.parentNode.insertBefore(t,s)}(window,
document,’script’,’//connect.facebook.net/en_US/fbevents.js’);
fbq(‘init’, ‘1453039084979896′);
fbq(‘track’, “PageView”);
}
}
VIA:
mashable.com

