Το AI θα μπορούσε να μας δώσει ψηφιακή αθανασία αλλά μάλλον δεν το θέλουμε

Στο δράμα φαντασίας του 1990 –

Αλήθεια, Τρελά, Βαθιά

, η πρωταγωνίστρια Nina, (Juliet Stevenson), θρηνεί για τον πρόσφατο θάνατο του φίλου της Jamie (Alan Rickman). Νιώθοντας τη βαθιά της θλίψη, ο Τζέιμι επιστρέφει ως φάντασμα για να τη βοηθήσει να αντιμετωπίσει την απώλεια της. Αν έχετε δει την ταινία, θα ξέρετε ότι η επανεμφάνισή του την αναγκάζει να αμφισβητήσει τη μνήμη της για εκείνον και, με τη σειρά της, να αποδεχτεί ότι ίσως δεν ήταν τόσο τέλειος όσο τον θυμόταν. Εδώ το 2023, ένα νέο κύμα «τεχνολογίας θλίψης» που βασίζεται στην τεχνητή νοημοσύνη μας προσφέρει σε όλους μας την ευκαιρία να περάσουμε χρόνο με αγαπημένα πρόσωπα μετά το θάνατό τους — σε διάφορες μορφές. Αλλά σε αντίθεση με τον Jamie (ο οποίος παραπλανά καλοπροαίρετα τη Nina), μας ζητείται να αφήσουμε την τεχνητή νοημοσύνη να εξυπηρετήσει μια εκδοχή αυτών που επιζούμε. Τι θα μπορούσε ενδεχομένως να πάει στραβά;

Ενώ τα εργαλεία παραγωγής όπως το

και το Midjourney κυριαρχούν στη συνομιλία της τεχνητής νοημοσύνης, αγνοούμε σε γενικές γραμμές τα μεγαλύτερα ηθικά ερωτήματα σχετικά με θέματα όπως η θλίψη και το πένθος. Ο Πάπας με ρουφηξιά είναι ωραίος, τελικά, αλλά σκέφτεσαι τους αγαπημένους σου μετά θάνατον; Οχι τόσο πολύ. Αν πιστεύετε ότι τα άβαταρ της τεχνητής νοημοσύνης για τους νεκρούς εξακολουθούν να είναι μια διέξοδος, θα κάνετε λάθος. Τουλάχιστον μία εταιρεία προσφέρει ήδη ψηφιακή αθανασία – και είναι τόσο δαπανηρή όσο και απόκοσμη.



Re; μνήμη

για παράδειγμα, είναι μια υπηρεσία που προσφέρεται από την Deepbrain AI – μια εταιρεία της οποίας η κύρια δραστηριότητα περιλαμβάνει αυτές τις «

εικονικός βοηθός

πληκτρολογήστε διαδραστικές οθόνες μαζί με

Παρουσιαστές ειδήσεων AI

. Η κορεατική εταιρεία οδήγησε την εμπειρία της στο πάντρεμα των chatbots και των παραγωγικών βίντεο AI στο απόλυτο, μακάβριο συμπέρασμα. Με μόλις 10.000 $ δολάρια και λίγες ώρες σε ένα στούντιο, μπορείτε να δημιουργήσετε ένα avatar του εαυτού σας που μπορεί να επισκεφθεί η οικογένειά σας (με επιπλέον κόστος) σε μια εγκατάσταση εκτός έδρας. Το Deepbrain εδρεύει στην Κορέα και οι κορεατικές παραδόσεις πένθους περιλαμβάνουν “

Τζέσα

», ετήσια επίσκεψη στον τόπο ανάπαυσης των αναχωρητών.


Αυτήν τη στιγμή, ακόμη και με την παραδοχή της ίδιας της εταιρείας, η υπηρεσία δεν ισχυρίζεται ότι αναπαράγει την προσωπικότητά της με πολύ βάθος – το σετ εκπαίδευσης προσφέρει μόνο πραγματικά στο avatar να έχει μια «διάθεση». Ο Michael Jung, Επικεφαλής Επιχειρηματικής Ανάπτυξης και Στρατηγικής στο Deepbrain είπε στο Engadget: «Αν θέλω να γίνω ένας πολύ διασκεδαστικός Michael, τότε πρέπει να διαβάσω πολύ υπερφωνές ή διασκεδαστικές φωνές για 300 γραμμές. Στη συνέχεια, κάθε φορά που εισάγω το κείμενο [to the avatar] Θα έχω έναν πολύ συναρπαστικό Michael”. Το Re;memory δεν προσπαθεί επί του παρόντος να δημιουργήσει ένα αληθινό φαξ του θέματος – είναι κάτι που μπορείτε να επισκέπτεστε περιστασιακά και να έχετε βασικές αλληλεπιδράσεις μαζί του – αλλά ελπίζει κανείς να έχει λίγο περισσότερο χαρακτήρα από μια εικονική ρεσεψιόν ξενοδοχείου.

Ενώ το Re;memory έχει το πρόσθετο πλεονέκτημα ότι είναι ένα είδωλο βίντεο που μπορεί να απαντήσει στις ερωτήσεις σας, με βάση τον ήχο

ΕδώΜετά AI

προσπαθεί να αποτυπώσει λίγο περισσότερο την προσωπικότητά σας με μια σειρά ερωτήσεων. Το αποτέλεσμα είναι ένα ηχητικό chatbot με το οποίο μπορούν να αλληλεπιδράσουν οι φίλοι και η οικογένειά σας, λαμβάνοντας προφορικές απαντήσεις, ακόμη και ιστορίες και ανέκδοτα από το παρελθόν. Κατά γενική ομολογία, τα προ-εκπαιδευμένα chatbots παρέχουν πειστικές απαντήσεις στις φωνές των ιδιοκτητών τους – έως ότου η ψευδαίσθηση σπάσει ανεπιτήδευτα όταν απαντά ρομποτικά «Συγγνώμη, δεν το κατάλαβα αυτό. Μπορείτε να δοκιμάσετε να ρωτήσετε με άλλο τρόπο ή να προχωρήσετε σε άλλο θέμα.» σε οποιοδήποτε ερώτημα δεν έχει απάντηση.

Το αν αυτές οι τεχνολογίες δημιουργούν ένα ρεαλιστικό avatar ή όχι δεν είναι το πρωταρχικό μέλημα – η τεχνητή νοημοσύνη κινείται σε ένα τέτοιο κλιπ που

σίγουρα θα βελτιωθεί

. Οι πιο δύσκολες ερωτήσεις περιστρέφονται γύρω από το ποιος είναι ο ιδιοκτήτης αυτού του avatar αφού φύγετε; Ή είναι ασφαλείς και ασφαλείς οι μνήμες και τα δεδομένα σας; Και τι αντίκτυπο μπορεί να έχει όλο αυτό σε αυτούς που αφήνουμε πίσω;

Η Joanna Bryson, Καθηγήτρια Ηθικής και Τεχνολογίας στο Hertie School of Governance παρομοιάζει το τρέχον κύμα τεχνολογίας θλίψης με την εποχή που το

ήταν πιο δημοφιλές στους νέους. Τότε, ήταν ένας κοινός προορισμός για να μνημονεύσουμε φίλους που είχαν περάσει και ο συναισθηματικός αντίκτυπος ήταν εντυπωσιακός. «Ήταν μια τόσο νέα, άμεση μορφή επικοινωνίας, που τα παιδιά δεν μπορούσαν να πιστέψουν ότι είχαν φύγει. Και πιστεύουν σοβαρά ότι το διάβαζαν οι νεκροί φίλοι τους. Και λένε, «Το ξέρω, το βλέπεις αυτό».

OLIVIER DOULIERY μέσω Getty Images

Η εγγενής πρόσθετη διάσταση που προσφέρουν τα avatar AI προσθέτει μόνο καύσιμο στην ανησυχία για τον αντίκτυπο που μπορεί να έχουν αυτές οι δημιουργίες στον θλιμμένο εγκέφαλό μας. «Τι κάνει στη ζωή σου, που ξοδεύεις τον χρόνο σου να θυμάσαι… ίσως είναι καλό να έχεις λίγο χρόνο να το επεξεργαστείς για λίγο. Αλλά μπορεί να μετατραπεί σε μια ανθυγιεινή εμμονή».

Ο Bryson πιστεύει επίσης ότι αυτή η ίδια τεχνολογία θα μπορούσε να αρχίσει να χρησιμοποιείται με τρόπους που δεν προοριζόταν αρχικά. «Τι γίνεται αν είσαι έφηβος ή προεφηβικός και περνάς όλο τον χρόνο σου στο τηλέφωνο με τον καλύτερό σου φίλο. Και μετά καταλαβαίνεις ότι προτιμάς, όπως α [AI] σύνθεση του καλύτερου φίλου σου και του Justin Bieber ή κάτι τέτοιο. Και σταματάς να μιλάς με τον πραγματικό σου φίλο», είπε.

Φυσικά, αυτό το σενάριο είναι πέρα ​​από τις τρέχουσες δυνατότητες. Όχι μόνο επειδή για να δημιουργήσουμε μια έκδοση AI του καλύτερου, ζωντανού φίλου μας, θα χρειαζόμασταν τόσα πολλά δεδομένα που θα χρειαζόμασταν τη συμμετοχή/συγκατάθεσή του στη διαδικασία. Αλλά αυτό μπορεί να μην ισχύει για πολύ ακόμη. Η πρόσφατη πληθώρα ψεύτικων τραγουδιών τεχνητής νοημοσύνης σε στυλ διάσημων καλλιτεχνών είναι ήδη δυνατή και δεν θα χρειαστεί πολύς καιρός για να γίνετε διασημότητα για να υπάρχουν αρκετά διαθέσιμα δημόσια στοιχεία για να τροφοδοτήσετε μια γενετική τεχνητή νοημοσύνη. Το VALL-E της

, για παράδειγμα, μπορεί ήδη να κάνει μια αξιοπρεπή δουλειά στην κλωνοποίηση μιας φωνής με μόλις τρία δευτερόλεπτα υλικού πηγής.

Αν είχατε ποτέ την ατυχία να ταξινομήσετε τα υπάρχοντα ενός νεκρού συγγενή, συχνά μαθαίνετε πράγματα για αυτόν που δεν ήξερες ποτέ. Ίσως ήταν η αγάπη τους για ένα συγκεκριμένο είδος ποίησης μέσω των υπογραμμίσεων τους σε ένα βιβλίο. Ή ίσως κάτι πιο απαίσιο, όπως τραπεζικά αντίγραφα που έδειχναν ακρωτηριαστικό χρέος. Όλοι έχουμε λεπτομέρειες που μας κάνουν σύνθετους, ολοκληρωμένους ανθρώπους. Λεπτομέρειες που, συχνά σκόπιμα, παραμένουν κρυφές από τη δημόσια προσωπικότητά μας. Αυτό αναδεικνύει ένα άλλο ηθικό αίνιγμα που έχει τιμηθεί στο παρελθόν.

Το Διαδίκτυο είναι γεμάτο από ιστορίες γονέων και αγαπημένων προσώπων που αναζητούν πρόσβαση στους λογαριασμούς email ή μηνυμάτων του αποθανόντος

για να τα θυμάσαι

. Καλώς ή κακώς μπορεί να μην αισθανόμαστε άνετα να πούμε στην οικογένειά μας για τη σεξουαλικότητα ή την πολιτική μας ή ότι ο σύζυγός μας είχε σχέση – όλα αυτά που μπορεί να αποκαλύψουν τα ιδιωτικά ψηφιακά μας μηνύματα. Και αν δεν είμαστε προσεκτικοί, αυτά θα μπορούσαν να είναι δεδομένα που παραδίδουμε άθελά μας στην τεχνητή νοημοσύνη για εκπαίδευση, μόνο για να βγάλει αυτό το μυστικό μετά θάνατον.

Ακόμη και με τη συγκατάθεση του ατόμου που αναδημιουργείται στην τεχνητή νοημοσύνη, δεν υπάρχουν διαβεβαιώσεις ότι κάποιος άλλος δεν μπορεί να πάρει στα χέρια του την ψηφιακή σας έκδοση και να την καταχραστεί. Και αυτή τη στιγμή, αυτό εμπίπτει σε γενικές γραμμές στον ίδιο κουβά εγκλήματος με κάποιον που κλέβει τα στοιχεία της πιστωτικής σας κάρτας. Μέχρι να κάνουν κάτι δημόσιο με αυτό, οπότε και άλλοι νόμοι, όπως π.χ

δικαίωμα στη δημοσιότητα

μπορεί να ισχύουν – αλλά συνήθως, αυτές οι προστασίες είναι μόνο για τους ζωντανούς.

Ο Bryson προτείνει ότι η λογική απάντηση για την προστασία δεδομένων μπορεί να είναι κάτι με το οποίο είμαστε ήδη εξοικειωμένοι – όπως τα τοπικά αποθηκευμένα βιομετρικά δεδομένα που χρησιμοποιούμε για

ξεκλειδώνουμε τα τηλέφωνά μας

. «Η

δεν εμπιστεύτηκε ποτέ κανέναν. Έτσι, είναι πραγματικά πολύ προσανατολισμένοι στην ιδιωτικότητα. Οπότε τείνω να πιστεύω ότι αυτός είναι ο οργανισμός που θα βρει πράγματα, επειδή το θέλουν οι ίδιοι». (Το κύριο ζήτημα με αυτόν τον τρόπο, όπως επισημαίνει ο Bryson, είναι ότι αν το σπίτι σας καεί, κινδυνεύετε να χάσετε τη «γιαγιά» για πάντα.)

Μπροστινή όψη πορτρέτο ενός λυπημένου εφήβου που παραπονιέται σε ένα μπαρ τη νύχτα

AntonioGuillem μέσω Getty Images

Τα δεδομένα θα είναι πάντα σε κίνδυνο, ανεξάρτητα από το πού και πώς αποθηκεύονται. Είναι ένας κίνδυνος της σύγχρονης ζωής. Και όλες αυτές οι ανησυχίες για το απόρρητο μπορεί να φαίνονται σαν ένα αυριανό πρόβλημα (με τον ίδιο τρόπο που τείνουμε να ανησυχούμε για διαδικτυακή απάτη μόνο όταν μας συμβεί). Το κόστος, η ακρίβεια και η γενική ανατριχίλα που δημιουργούν η τεχνητή νοημοσύνη και τα μελλοντικά μας ψηφιακά avatar μπορεί να είναι τρομακτικά, αλλά είναι επίσης ένα συντριπτικό αναπόφευκτο. Αλλά αυτό δεν σημαίνει ότι το μέλλον μας είναι καταδικασμένο να είναι ένας ωκεανός από τον Max Headroom να εκπέμπει τα πιο εσωτερικά μας μυστικά σε όποιον χάκερ θα ακούσει.

«Θα είναι ένα πρόβλημα αμέσως, πιθανότατα υπάρχει ήδη πρόβλημα», είπε ο Μπράισον. «Αλλά ελπίζω ότι μια καλή έκδοση υψηλής ποιότητας θα είχε διαφάνεια και θα μπορούσατε να το ελέγξετε. Και είμαι βέβαιος ότι η Bing και η

εργάζονται σε αυτό τώρα, για να μπορούν να επαληθεύσουν από πού αντλούν τις ιδέες τους τα προγράμματα συνομιλίας.” Μέχρι τότε όμως, κινδυνεύουμε να το μάθουμε

ο δύσκολος τρόπος

.

Ο Bryson είναι πρόθυμος να επισημάνει ότι υπάρχουν ορισμένα θετικά στοιχεία και είναι διαθέσιμα στους ζωντανούς. «Αν το κάνεις πολύ με το θάνατο, δεν το σκέφτεσαι σωστά», είπε. Αυτή η τεχνολογία μας αναγκάζει να αντιμετωπίσουμε τη θνησιμότητα μας με έναν νέο, αν και περίεργο τρόπο και αυτό μπορεί μόνο να μας βοηθήσει να σκεφτούμε τις σχέσεις που έχουμε εδώ στον κόσμο των ζωντανών. Μια έκδοση τεχνητής νοημοσύνης κάποιου θα είναι πάντα μια κακή φαξ, οπότε, όπως προτείνει ο Bryson, γιατί να μην γνωρίσετε το πραγματικό άτομο καλύτερα όσο μπορείτε. «Μακάρι οι άνθρωποι να έκαναν πρόβες συνομιλιών με ένα chatbot και μετά να μιλούσαν με ένα πραγματικό άτομο και να ανακαλύψουν ποιες είναι οι διαφορές».


Όλα τα προϊόντα που προτείνει η Engadget επιλέγονται από τη συντακτική μας ομάδα, ανεξάρτητα από τη μητρική μας εταιρεία. Ορισμένες από τις ιστορίες μας περιλαμβάνουν συνδέσμους συνεργατών. Εάν αγοράσετε κάτι μέσω ενός από αυτούς τους συνδέσμους, ενδέχεται να κερδίσουμε μια προμήθεια θυγατρικών. Όλες οι τιμές είναι σωστές τη στιγμή της δημοσίευσης.


Engadget.com



You might also like


Leave A Reply



Cancel Reply

Your email address will not be published.