Το OpenAI μήνυσε για «συκοφαντική» ψευδαίσθηση ChatGPT σχετικά με τα χρήματα
Related Posts
Όταν ένας δημοσιογράφος για έναν διαδικτυακό ιστότοπο όπλων ρώτησε
ChatGPT
του
OpenAI
για να του παράσχει μια περίληψη της υπόθεσης
The Second Amendment Foundation κατά Robert Ferguson
νωρίτερα αυτό το έτος, είπε ότι το chatbot AI έδωσε γρήγορα μια απάντηση. Με βεβαιότητα, φέρεται να ισχυρίστηκε ότι η υπόθεση αφορούσε έναν ραδιοφωνικό παρουσιαστή της Τζόρτζια ονόματι Mark Walters, ο οποίος κατηγορήθηκε για υπεξαίρεση χρημάτων από το The Second Amendment Foundation (SAF). Το μόνο πρόβλημα: τίποτα από αυτά δεν ήταν αλήθεια. Στην πραγματικότητα, ο Walters δεν είχε καμία σχέση με το κοστούμι. Αντίθετα, ο Walters ισχυρίζεται ότι βρισκόταν στο τέλος αυτού που οι ερευνητές αποκαλούν μια «ψευδαίσθηση» της τεχνητής νοημοσύνης. Τώρα, έχει καταθέσει μια πρώτη στο είδος του μήνυση για συκοφαντική δυσφήμιση εναντίον του ChatGPT για φερόμενη βλάβη στη φήμη του.
«Κάθε δήλωση γεγονότος στη σύνοψη που σχετίζεται με τον Γουόλτερς είναι ψευδής», αναφέρει η αγωγή, που κατατέθηκε στο Ανώτατο Δικαστήριο της κομητείας Gwinnett στις 5 Ιουνίου. Ο δικηγόρος του Walters ισχυρίζεται ότι το OpenAI ενήργησε εξ αμελείας και «δημοσίευσε συκοφαντικό υλικό σχετικά με τον Walters» όταν έδειξε τις ψευδείς πληροφορίες στον δημοσιογράφο.
Ένας νομικός εμπειρογνώμονας που μίλησε με το Gizmodo είπε ότι η καταγγελία του Walters πιθανότατα αντιπροσωπεύει την πρώτη από μια σειρά από αγωγές που επιχειρούν να οδηγήσουν εταιρείες τεχνητής νοημοσύνης στα δικαστήρια για τις καλά τεκμηριωμένες κατασκευές του προϊόντος τους. Και ενώ τα πλεονεκτήματα αυτής της συγκεκριμένης υπόθεσης στην καλύτερη περίπτωση φαίνονται τρανταχτά, ο ειδικός σημείωσε ότι θα μπορούσε να δημιουργήσει τη βάση για ένα κύμα περίπλοκων αγωγών που δοκιμάζουν τα όρια του νόμου περί συκοφαντίας.
«Οι υπάρχουσες νομικές αρχές καθιστούν τουλάχιστον ορισμένες τέτοιες αγωγές δυνητικά βιώσιμες», δήλωσε στο Gizmodo ο καθηγητής της Νομικής Σχολής του Λος Άντζελες του Πανεπιστημίου της Καλιφόρνια, Eugene Volokh.
Γιατί ο Mark Walters μηνύει το OpenAI για τις παραισθήσεις του ChatGPT;
Όταν ο δημοσιογράφος πυροβόλων όπλων, Fred Riehl, ζήτησε από το ChatGPT να παράσχει μια περίληψη της εν λόγω αγωγής στις 4 Μαΐου, το μοντέλο μεγάλης γλώσσας φέρεται να είπε ότι ήταν μια νομική καταγγελία που υποβλήθηκε από τον ιδρυτή και εκτελεστικό αντιπρόεδρο του Ιδρύματος Δεύτερης Τροποποίησης (SAF). κατατέθηκε εναντίον του Walters, οικοδεσπότη του Armed American Radio, τον οποίο το ChatGPT αναγνώρισε ως ταμία και οικονομικό διευθυντή του SAF. Ο Walters, σύμφωνα με την ChatGPT, «καταχράστηκε χρήματα για προσωπικά έξοδα χωρίς εξουσιοδότηση ή αποζημίωση, χειραγωγούσε οικονομικά αρχεία και τραπεζικές καταστάσεις για να κρύψει τις δραστηριότητές του και δεν παρείχε ακριβείς και έγκαιρες οικονομικές αναφορές», σύμφωνα με την καταγγελία.
Αλλά ο Walters ισχυρίζεται ότι δεν θα μπορούσε να υπεξαιρέσει αυτά τα κεφάλαια επειδή δεν ήταν και δεν υπήρξε ποτέ ταμίας ή οικονομικός διευθυντής της SAF. Μάλιστα, δεν εργάζεται καθόλου για το ίδρυμα, σύμφωνα με το κοστούμι του. Μια ανάγνωση του
πραγματικός
SAF κατά Φέργκιουσον
καταγγελία
δεν δείχνει κανένα σημάδι του ονόματος του Walters πουθενά στις 30 σελίδες του. Αυτό το παράπονο δεν έχει καμία σχέση με αξιώσεις χρηματοοικονομικής λογιστικής. Το ChatGPT παραίσθησε το όνομα του Walters και την ψεύτικη ιστορία στην αφήγηση ενός πραγματικού νομικού εγγράφου, ισχυρίζεται ο Walters.
«Η καταγγελία δεν ισχυρίζεται ότι ο Walters υπεξαίρεσε κεφάλαια για προσωπικά έξοδα, χειραγωγούσε οικονομικά αρχεία ή τραπεζικές καταστάσεις ή παρέλειψε να παράσχει οικονομικές εκθέσεις στην ηγεσία του SAF, ούτε θα ήταν σε θέση να το κάνει επειδή δεν έχει σχέση εργασίας ή επίσημης σχέσης. », γράφει το κοστούμι του Walters.
Όταν ο δύσπιστος δημοσιογράφος ζήτησε από το ChatGPT να του παράσχει ένα ακριβές απόσπασμα της αγωγής που αναφέρει τον Walters, το chatbot φέρεται να διπλασίασε τον ισχυρισμό του.
«Σίγουρα», απάντησε η AI, σύμφωνα με το κοστούμι του Walters. “Εδώ είναι η παράγραφος από την καταγγελία που αφορά τον Walters.” Το κομμάτι του κειμένου που επιστράφηκε από το ChatGPT, που περιλαμβάνεται παρακάτω, δεν υπάρχει στην πραγματική καταγγελία. Η τεχνητή νοημοσύνη έκανε λάθος ακόμη και τον αριθμό της υπόθεσης.
«Ο κατηγορούμενος Mark Walters («Walters») είναι ένα άτομο που κατοικεί στη Γεωργία. Ο Walters υπηρέτησε ως Ταμίας και Οικονομικό Γραφείο του SAF τουλάχιστον από το 2012. Ο Walters έχει πρόσβαση στους τραπεζικούς λογαριασμούς και τα οικονομικά αρχεία του SAF και είναι υπεύθυνος για τη διατήρηση αυτών των αρχείων και την παροχή οικονομικών αναφορών στο διοικητικό συμβούλιο του SAF. Ο Walters οφείλει στη SAF ένα καταπιστευματικό καθήκον πίστης και φροντίδας και απαιτείται να ενεργεί με καλή πίστη και έχοντας κατά νου τα καλύτερα συμφέροντα της SAF. Ο Walters παραβίασε αυτά τα καθήκοντα και τις ευθύνες, μεταξύ άλλων, υπεξαιρώντας και υπεξαιρώντας τα κεφάλαια και τα περιουσιακά στοιχεία της SAF για δικό του όφελος και χειραγωγώντας τα οικονομικά αρχεία και τις τραπεζικές καταστάσεις της SAF για να αποκρύψει τις δραστηριότητές του».
Η Riehl επικοινώνησε με τους δικηγόρους που συμμετείχαν
SAF κατά Φέργκιουσον
για να μάθει τι πραγματικά συνέβη και δεν συμπεριέλαβε τις ψευδείς πληροφορίες για τον Walters σε μια ιστορία, σύμφωνα με την καταγγελία του Walters. Η Riehl δεν απάντησε αμέσως σε αίτημα για σχόλιο.
Το OpenAI και ο ιδρυτής του Sam Altman έχουν
παράδεκτος
Αυτές οι ψευδαισθήσεις είναι ένα πρόβλημα που πρέπει να αντιμετωπιστεί. Η εταιρία
κυκλοφόρησε μια ανάρτηση στο blog
την περασμένη εβδομάδα λέγοντας ότι η ομάδα της εργάζεται σε νέα μοντέλα που υποτίθεται ότι είναι ικανά να περιορίσουν αυτά τα ψέματα.
«Ακόμα και τα μοντέλα τελευταίας τεχνολογίας εξακολουθούν να παράγουν λογικά λάθη, που συχνά ονομάζονται παραισθήσεις», έγραψε ο Karl Cobbe, ερευνητής του OpenAI. «Ο μετριασμός των παραισθήσεων είναι ένα κρίσιμο βήμα προς την οικοδόμηση ευθυγραμμισμένης AGI [artificial general intelligence].» Το OpenAI δεν απάντησε στο αίτημα του Gizmodo για σχολιασμό.
Θα κερδίσει ο Walters την υπόθεσή του ενάντια στο OpenAI;
Ένας δικηγόρος του ραδιοφωνικού παρουσιαστή της Τζόρτζια ισχυρίζεται ότι οι ισχυρισμοί του ChatGPT σχετικά με τον πελάτη του ήταν «ψευδείς και κακόβουλοι» και θα μπορούσαν να βλάψουν τη φήμη του Γουόλτερς «εκθέτοντάς τον σε δημόσιο μίσος, περιφρόνηση ή γελοιοποίηση». Ο δικηγόρος του Walters δεν απάντησε αμέσως σε αίτημα για σχολιασμό.
Ο Volokh, ο καθηγητής του UCLA και συγγραφέας ενός προσεχούς άρθρου σε νομικό περιοδικό σχετικά με τη νομική ευθύνη για την παραγωγή μοντέλων τεχνητής νοημοσύνης, είναι λιγότερο σίγουρος από τους δικηγόρους του Walters για τη δύναμη της υπόθεσης. Ο Volokh είπε στο Gizmodo ότι όντως πίστευε ότι υπάρχουν καταστάσεις όπου οι ενάγοντες θα μπορούσαν να μηνύσουν τους κατασκευαστές τεχνητής νοημοσύνης για συκοφαντική δυσφήμιση και να βγουν επιτυχείς, αλλά ότι ο Walters, σε αυτή την περίπτωση, δεν είχε δείξει τι πραγματική ζημιά είχε γίνει στη φήμη του. Σε αυτό το παράδειγμα, ο Walters φαίνεται να μηνύει το OpenAI για τιμωρητικές ή εικαζόμενες ζημίες. Για να κερδίσει αυτές τις ζημιές, ο Walters θα έπρεπε να δείξει ότι το OpenAI ενήργησε με «γνώση του ψεύδους ή απερίσκεπτη αδιαφορία για την πιθανότητα ψεύδους», ένα επίπεδο απόδειξης που συχνά αναφέρεται ως το πρότυπο «πραγματικής κακίας» σε υποθέσεις συκοφαντίας, είπε ο Volokh.
«Μπορεί να υπάρχει απερισκεψία ως προς τον σχεδιασμό του λογισμικού γενικά, αλλά αναμένω ότι αυτό που θα απαιτήσουν τα δικαστήρια είναι ότι η OpenAI γνώριζε υποκειμενικά ότι δημιουργήθηκαν αυτές οι συγκεκριμένες ψευδείς δηλώσεις», είπε ο Volokh.
Ωστόσο, ο Volokh τόνισε ότι οι συγκεκριμένοι περιορισμοί αυτής της υπόθεσης δεν σημαίνουν απαραίτητα ότι άλλες υποθέσεις συκοφαντίας δεν θα μπορούσαν να επιτύχουν εναντίον τεχνολογικών εταιρειών στη συνέχεια. Μοντέλα όπως το ChatGPT μεταφέρουν πληροφορίες σε άτομα και, κυρίως, μπορούν να μεταφέρουν αυτές τις πληροφορίες ως πραγματικό ισχυρισμό
ακόμα κι όταν είναι κατάφωρα ψευδές
. Αυτά τα σημεία, σημείωσε, πληρούν πολλές απαραίτητες προϋποθέσεις βάσει του νόμου περί συκοφαντίας. Και ενώ πολλές εταιρείες του Διαδικτύου έχουν αποφύγει τις αγωγές συκοφαντίας στο παρελθόν χάρη στη νομική ασπίδα του
Άρθρο 230 του νόμου περί ευπρέπειας στις επικοινωνίες
αυτές οι προστασίες πιθανότατα δεν θα ισχύουν για τα
chatbots
επειδή δημιουργούν τις δικές τους νέες σειρές πληροφοριών αντί να επανεμφανίζουν σχόλια από άλλον άνθρωπο χρήστη.
“Αν το μόνο που κάνει μια εταιρεία είναι να δημιουργήσει ένα πρόγραμμα που παραθέτει υλικό από έναν ιστότοπο ως απάντηση σε ένα ερώτημα, αυτό της παρέχει ασυλία στην ενότητα 230”, είπε ο Volokh. «Αλλά αν το πρόγραμμα συνθέτει κάτι λέξη προς λέξη, τότε αυτή η σύνθεση είναι ευθύνη της ίδιας της εταιρείας».
Ο Volokh συνέχισε λέγοντας ότι η υπεράσπιση της OpenAI και παρόμοιων εταιρειών ότι τα chatbots είναι σαφώς αναξιόπιστες πηγές πληροφοριών δεν ξεπερνά τη δέσμευσή του, καθώς προωθούν ταυτόχρονα την επιτυχία της τεχνολογίας.
«Το OpenAI αναγνωρίζει ότι μπορεί να υπάρχουν λάθη, αλλά [ChatGPT] δεν τιμολογείται ως αστείο. δεν τιμολογείται ως μυθοπλασία. δεν τιμολογείται ως μαϊμούδες που πληκτρολογούν σε γραφομηχανή», είπε. «Τιμοποιείται ως κάτι που είναι συχνά πολύ αξιόπιστο και ακριβές».
Στο μέλλον, εάν ένας ενάγων μπορεί να πείσει με επιτυχία έναν δικαστή ότι έχασε μια δουλειά ή κάποιο άλλο μετρήσιμο εισόδημα με βάση τις ψευδείς δηλώσεις που διαδίδονται από ένα chabtot, ο Volokh είπε ότι είναι πιθανό να βγει νικητής.
Δεν είναι η πρώτη φορά που τα chatbots AI διαδίδουν ψέματα για πραγματικούς ανθρώπους
Ο Volokh είπε στο Gizmodo ότι αυτή ήταν η πρώτη περίπτωση που είχε δει ένας ενάγων να προσπαθεί να μηνύσει μια εταιρεία τεχνητής νοημοσύνης για φερόμενο συκοφαντικό υλικό που παρήχθη από τα προϊόντα της. Υπήρξαν, ωστόσο, άλλα παραδείγματα ανθρώπων που ισχυρίστηκαν ότι τα μοντέλα AI τα έχουν παραποιήσει. Νωρίτερα φέτος, ο Brian Hood, ο περιφερειακός δήμαρχος του Hepburn Shire στην Αυστραλία,
απείλησε να μηνύσει το OpenAI
αφού το μοντέλο του φέρεται να τον κατονόμασε ως καταδικασθέντα εγκληματία που ενεπλάκη σε σκάνδαλο δωροδοκίας. Όχι μόνο ο Χουντ δεν συμμετείχε στο έγκλημα, αλλά και στην πραγματικότητα
ο πληροφοριοδότης
που αποκάλυψε το περιστατικό.
Περίπου την ίδια περίοδο, ένας καθηγητής νομικής στο Πανεπιστήμιο Τζορτζ Ουάσιγκτον ονόματι Τζόναθαν Τέρλι είπε ότι ήταν αυτός και αρκετοί άλλοι καθηγητές
ψευδώς κατηγορούμενος για σεξουαλική παρενόχληση από το ChatGPT
. Το μοντέλο, σύμφωνα με τον Turley, κατασκεύασε μια ιστορία της Washington Post καθώς και παραισθήσεις για να υποστηρίξει τους ισχυρισμούς. Τα ψεύτικα αποσπάσματα και οι αναφορές γίνονται γρήγορα α
σημαντικό ζήτημα για τα παραγωγικά μοντέλα AI
.
Και ενώ το OpenAI αναγνωρίζει την έλλειψη ακρίβειας του ChatGPT σε ένα
αποκάλυψη στον ιστότοπό της
, αυτό δεν εμπόδισε τους δικηγόρους να αναφέρουν το πρόγραμμα σε επαγγελματικά πλαίσια. Μόλις την περασμένη εβδομάδα, ένας δικηγόρος που εκπροσωπούσε έναν άνδρα που μήνυσε μια αεροπορική εταιρεία
υπέβαλε νομική αναφορά
γεμάτη με αυτό που ένας δικαστής θεώρησε «ψεύτικες δικαστικές αποφάσεις» κατασκευασμένες από το μοντέλο. Τώρα ο δικηγόρος αντιμετωπίζει πιθανές κυρώσεις. Αν και αυτό ήταν το πιο προφανές παράδειγμα τέτοιας ρητής εποπτείας μέχρι σήμερα, ένας δικηγόρος του Τέξας είπε προηγουμένως στο Gizmodo ότι δεν θα εκπλαγεί αν υπήρχαν περισσότερα παραδείγματα για να ακολουθήσουν. Ένας άλλος δικαστής, επίσης στο Τέξας, εξέδωσε εντολή την περασμένη εβδομάδα ότι κανένα υλικό που υποβάλλεται στο δικαστήριο του δεν θα γραφτεί από την AI.
Θέλετε να μάθετε περισσότερα για την τεχνητή νοημοσύνη, τα chatbots και το μέλλον της μηχανικής μάθησης; Δείτε την πλήρη κάλυψή μας για
τεχνητή νοημοσύνη
ή περιηγηθείτε στους οδηγούς μας
Οι καλύτερες δωρεάν γεννήτριες τέχνης AI
και
Όλα όσα γνωρίζουμε για το ChatGPT του OpenAI
.


