Η απεργία του συγγραφέα του Χόλιγουντ μπορεί να έχει τελειώσει, αλλά η μάχη για την τεχνητή νοημοσύνη απέχει πολύ από το τέλος
Πρωτοσέλιδα αυτή την εβδομάδα
-
Το
OpenAI
κυκλοφόρησε μια σειρά από μεγάλες ενημερώσεις στο
ChatGPT
αυτή την εβδομάδα. Αυτές οι ενημερώσεις περιλαμβάνουν “
μάτια, αυτιά και φωνή
» (δηλαδή, το chatbot διαθέτει πλέον αναγνώριση εικόνας, δυνατότητες σύνθεσης ομιλίας σε κείμενο και κειμένου σε ομιλία και φωνητικά τύπου Siri—έτσι ουσιαστικά μιλάτε με το HAL 9000), καθώς και μια νέα ενσωμάτωση που επιτρέπει στους χρήστες να
περιηγηθείτε στο ανοιχτό διαδίκτυο
. -
Στην ετήσια εκδήλωσή του Connect αυτή την εβδομάδα, η Meta παρουσίασε μια σειρά από νέα χαρακτηριστικά που σχετίζονται με την τεχνητή νοημοσύνη. Πες γεια σε
Αυτοκόλλητα που δημιουργούνται από AI
. Huzzah. -
Εάν χρησιμοποιείτε το ChatGPT
ως θεραπευτής;
Πιθανώς όχι. Για περισσότερες πληροφορίες σχετικά με αυτό, ρίξτε μια ματιά στη συνέντευξη αυτής της εβδομάδας. -
Τελευταίο αλλά εξίσου σημαντικό: οι μυθιστοριογράφοι είναι ακόμα
κάνοντας μήνυση στα σκατά
από εταιρείες τεχνητής νοημοσύνης επειδή έκλεψαν όλα τα έργα τους που προστατεύονται από πνευματικά δικαιώματα και τα μετέτρεψαν σε φαγητό chatbot.
The Top
Story
: Chalk One Up for the Good Guys
:
Elliott Cowand Jr
(
Shutterstock
)
Ένα από τα επίμονα ερωτήματα
που στοίχειωνε
Η απεργία των συγγραφέων του Χόλιγουντ ήταν τι είδους προστασία θα υλοποιούνταν (ή δεν θα) για να προστατεύσουν τους συγγραφείς από την απειλή της τεχνητής νοημοσύνης. Από νωρίς, τα στούντιο ταινιών και ροής έκαναν γνωστό ότι ήταν
ενθουσιασμένος
με την ιδέα ότι ένας αλγόριθμος θα μπορούσε τώρα να «γράψει» ένα σενάριο. Γιατί να μην είναι; Δεν χρειάζεται να πληρώσετε ένα πρόγραμμα λογισμικού. Έτσι, τα στελέχη αρχικά αρνήθηκαν να κάνουν παραχωρήσεις που θα καθόριζαν ξεκάθαρα τον σεναριογράφο ως
ο άνθρωπος
ρόλος.
Λοιπόν, τώρα τελείωσε η απεργία. Ευτυχώς, κατά κάποιο τρόπο, συγγραφείς
κέρδισε μεγάλες προστασίες
ενάντια στο είδος της αυτοματοποιημένης μετατόπισης που φοβόντουσαν. Αλλά αν αισθάνεται σαν μια στιγμή νίκης, θα μπορούσε απλώς να είναι η αρχή μιας συνεχιζόμενης μάχης μεταξύ της C-suite της βιομηχανίας ψυχαγωγίας και των ανθρώπων της.
Η νέα σύμβαση της WGA που προέκυψε από την απεργία του συγγραφέα περιλαμβάνει ευρεία προστασία για τους εργάτες της βιομηχανίας του θεάματος. Εκτός από τις θετικές παραχωρήσεις που αφορούν υπολείμματα και άλλες οικονομικές ανησυχίες, η σύμβαση περιγράφει επίσης οριστικά την προστασία έναντι της μετατόπισης μέσω τεχνητής νοημοσύνης. Σύμφωνα με τη σύμβαση, τα στούντιο δεν θα επιτρέπεται να χρησιμοποιούν τεχνητή νοημοσύνη για να γράψουν ή να ξαναγράψουν λογοτεχνικό υλικό και το υλικό που δημιουργείται με τεχνητή νοημοσύνη δεν θα θεωρείται πηγή υλικού για ιστορίες και σενάρια, πράγμα που σημαίνει ότι οι άνθρωποι θα διατηρήσουν την αποκλειστική πίστη για την ανάπτυξη δημιουργικών έργων
. Ταυτόχρονα, ενώ ένας συγγραφέας μπορεί να επιλέξει να χρησιμοποιήσει AI ενώ γράφει, μια εταιρεία δεν μπορεί να τον αναγκάσει να το χρησιμοποιήσει. Τέλος, οι εταιρείες θα πρέπει να αποκαλύψουν στους συγγραφείς εάν οποιοδήποτε υλικό που τους δόθηκε δημιουργήθηκε μέσω AI.
Εν ολίγοις: είναι πολύ καλά νέα που οι συγγραφείς του Χόλιγουντ κέρδισαν κάποιες προστασίες που τις περιγράφουν ξεκάθαρα
δεν θα αντικατασταθεί αμέσως από λογισμικό απλώς
ώστε τα στελέχη του στούντιο να μπορούν να περιποιηθούν έναν ανήλικο
δαπάνη
.
Μερικοί σχολιαστές είναι ακόμη
λέγοντας ότι
η απεργία του συγγραφέα έχει προσφέρει σε όλους ένα σχέδιο για το πώς να σωθούν όλοι
θέσεις εργασίας από την απειλή του αυτοματισμού. Ταυτόχρονα, παραμένει σαφές ότι η βιομηχανία της ψυχαγωγίας —και πολλοί άλλοι κλάδοι— είναι
εξακολουθούν να επενδύονται σε μεγάλο βαθμό στην έννοια της τεχνητής νοημοσύνης και θα είναι για το άμεσο
μέλλον
. Οι εργαζόμενοι θα πρέπει να συνεχίσουν να αγωνίζονται για να προστατεύσουν τους ρόλους τους στην οικονομία, καθώς οι εταιρείες αναζητούν ολοένα και περισσότερο χωρίς μισθούς,
αυτοματοποιημένες συντομεύσεις.
Η συνέντευξη: Calli Schroeder για το γιατί δεν πρέπει να χρησιμοποιείτε ένα Chatbot για έναν θεραπευτή
:
ΕΠΟΣ
Αυτή την εβδομάδα συνομιλήσαμε με την Calli Schroeder, παγκόσμια σύμβουλο απορρήτου στο Electronic Privacy Information Center (EPIC). Θέλαμε να μιλήσουμε στην Calli για ένα
περιστατικό
που πραγματοποιήθηκε αυτή την εβδομάδα με τη συμμετοχή του OpenAI. Η Lilian Weng, η επικεφαλής συστημάτων ασφαλείας της εταιρείας, ανασήκωσε περισσότερα από μερικά φρύδια
όταν έκανε tweet
ότι ένιωθε «άκουστη και ζεστή» ενώ μιλούσε στο ChatGPT. Στη συνέχεια, έγραψε στο Twitter: «Δεν είχα δοκιμάσει ποτέ θεραπεία, αλλά μάλλον αυτό είναι; Δοκιμάστε το ειδικά αν το χρησιμοποιείτε συνήθως ως εργαλείο παραγωγικότητας.» Οι άνθρωποι είχαν ενδοιασμούς για αυτό, συμπεριλαμβανομένης της Calli, η οποία στη συνέχεια
δημοσίευσε ένα νήμα
στο Twitter αναλύει γιατί ένα chatbot ήταν ο λιγότερο βέλτιστος θεραπευτικός συνεργάτης: «Γαμημένο σκατά, μη χρησιμοποιείτε το ChatGPT ως θεραπεία», έγραψε η Calli. Απλώς έπρεπε να μάθουμε περισσότερα. Αυτή η συνέντευξη έχει τροποποιηθεί για λόγους συντομίας και σαφήνειας.
Στα tweet σας φαινόταν σαν να λέγατε ότι το να μιλάτε σε ένα chatbot δεν πρέπει να θεωρείται θεραπεία. Συμφωνώ με αυτό το συναίσθημα, αλλά ίσως θα μπορούσατε να διευκρινίσετε γιατί αισθάνεστε έτσι. Γιατί ένα chatbot AI δεν είναι ίσως η καλύτερη διαδρομή για κάποιον που αναζητά ψυχική βοήθεια;
Το βλέπω ως πραγματικό κίνδυνο για δύο λόγους. Εάν προσπαθείτε να χρησιμοποιήσετε γενετικά συστήματα τεχνητής νοημοσύνης ως θεραπευτής και μοιράζεστε όλες αυτές τις πραγματικά προσωπικές και επώδυνες πληροφορίες με το chatbot… όλες αυτές οι πληροφορίες μπαίνουν στο σύστημα και τελικά θα χρησιμοποιηθούν ως δεδομένα εκπαίδευσης. Έτσι, οι πιο προσωπικές και ιδιωτικές σας σκέψεις χρησιμοποιούνται για την εκπαίδευση του συνόλου δεδομένων αυτής της εταιρείας. Και μπορεί να υπάρχει σε αυτό το σύνολο δεδομένων για πάντα. Ίσως δεν έχετε τρόπο να τους ζητήσετε ποτέ να το διαγράψουν. Εναλλακτικά, μπορεί να μην μπορεί να αφαιρεθεί. Μπορεί να μην ξέρετε αν είναι ανιχνεύσιμο σε εσάς. Υπάρχουν πολλοί λόγοι που όλη αυτή η κατάσταση είναι τεράστιος κίνδυνος.
Εκτός από αυτό, υπάρχει επίσης το γεγονός ότι αυτές οι πλατφόρμες δεν είναι στην πραγματικότητα θεραπευτές – δεν είναι καν άνθρωποι. Έτσι, όχι μόνο δεν έχουν καμία υποχρέωση να σε φροντίζουν, αλλά και κυριολεκτικά δεν τους νοιάζει. Δεν είναι ικανοί να νοιαστούν. Επίσης, δεν φέρουν ευθύνη αν σας δώσουν κακές συμβουλές που καταλήγουν να επιδεινώνουν τα πράγματα για την ψυχική σας κατάσταση.
Σε προσωπικό επίπεδο, με κάνει να ανησυχώ και να λυπάμαι που οι άνθρωποι που βρίσκονται σε κρίση ψυχικής υγείας απευθύνονται σε μηχανές, μόνο και μόνο για να κάνουν κάποιον ή κάτι να τους ακούσει και να τους δείξει λίγη ενσυναίσθηση. Νομίζω ότι αυτό μάλλον μιλάει για κάποια πολύ βαθύτερα προβλήματα στην κοινωνία μας.
Ναι, σίγουρα υποδηλώνει κάποιες ελλείψεις στο
σύστημα υγείας
μας.
Εκατό τοις εκατό. Μακάρι όλοι να είχαν πρόσβαση σε καλή, οικονομικά προσιτή θεραπεία. Αναγνωρίζω απόλυτα ότι αυτά τα chatbots γεμίζουν ένα κενό, επειδή το σύστημα υγειονομικής περίθαλψης μας έχει αποτύχει και δεν έχουμε καλές υπηρεσίες ψυχικής υγείας. Αλλά το πρόβλημα είναι ότι αυτές οι λεγόμενες λύσεις μπορούν πραγματικά να κάνουν τα πράγματα πολύ χειρότερα για τους ανθρώπους. Όπως, αν αυτό ήταν απλώς ένα θέμα που έγραφε κάποιος στο ημερολόγιό του για να εκφράσει τα συναισθήματά του, αυτό θα ήταν ένα πράγμα. Αλλά αυτά τα chatbots δεν είναι ένα ουδέτερο φόρουμ. σου απαντούν. Και αν οι άνθρωποι αναζητούν βοήθεια και αυτές οι απαντήσεις δεν είναι χρήσιμες, αυτό είναι ανησυχητικό. Αν εκμεταλλεύεται τον πόνο των ανθρώπων και τι του λένε, αυτό είναι ένα εντελώς ξεχωριστό θέμα.
Έχετε άλλες ανησυχίες σχετικά με τη θεραπεία με AI;
Αφού έγραψα στο Twitter σχετικά με αυτό, κάποιοι έλεγαν: “Λοιπόν, αν οι άνθρωποι επιλέξουν να το κάνουν αυτό, ποιος είσαι εσύ που θα τους πεις να μην το κάνουν;” Αυτό είναι ένα έγκυρο σημείο. Αλλά η ανησυχία που έχω είναι ότι, σε πολλές περιπτώσεις που αφορούν νέα τεχνολογία, οι άνθρωποι δεν επιτρέπεται να κάνουν ενημερωμένες επιλογές, επειδή δεν υπάρχει μεγάλη σαφήνεια σχετικά με το πώς λειτουργεί η τεχνολογία. Εάν οι άνθρωποι γνώριζαν πώς κατασκευάζονται αυτά τα συστήματα, πώς το ChatGPT παράγει το περιεχόμενο που κάνει, πού πηγαίνουν οι πληροφορίες που το τροφοδοτείτε, πόσο καιρό αποθηκεύονται—αν είχατε μια πραγματικά ξεκάθαρη ιδέα για όλα αυτά και εξακολουθούσατε να ενδιαφέρεται για αυτό, τότε… σίγουρα, δεν πειράζει. Αλλά, στο πλαίσιο της θεραπείας, εξακολουθεί να υπάρχει κάτι προβληματικό σχετικά με αυτό, επειδή εάν απλώνετε το χέρι σας με αυτόν τον τρόπο, είναι απολύτως πιθανό να βρίσκεστε σε μια στενοχωρημένη ψυχική κατάσταση όπου, εξ ορισμού, δεν σκέφτεστε καθαρά. Έτσι, γίνεται πολύ περίπλοκο το ερώτημα εάν η ενημερωμένη συγκατάθεση είναι πραγματική σε αυτό το πλαίσιο.
Προλάβετε όλα
Τα νέα της τεχνητής νοημοσύνης του Gizmodo εδώ
ή δείτε
όλα τα τελευταία νέα εδώ
. Για καθημερινές ενημερώσεις,
εγγραφείτε στο δωρεάν ενημερωτικό δελτίο Gizmodo
.
