Το OpenAI μήνυσε για συκοφαντική δυσφήμιση αφού το ChatGPT κατασκευάζει νομικές κατηγορίες εναντίον του ραδιοφωνικού οικοδεσπότη

Το

έχει χτυπηθεί με αυτό που φαίνεται να είναι η πρώτη αγωγή για δυσφήμιση που ανταποκρίνεται σε ψευδείς πληροφορίες που δημιουργούνται από το

.

Ένας ραδιοφωνικός παρουσιαστής στη Τζόρτζια, ο Mark Walters, μήνυσε την εταιρεία μετά την δήλωση του ChatGPT ότι ο Walters είχε κατηγορηθεί για απάτη και υπεξαίρεση κεφαλαίων από μη κερδοσκοπικό οργανισμό. Το σύστημα παρήγαγε τις πληροφορίες ως απάντηση σε αίτημα ενός τρίτου μέρους, ενός δημοσιογράφου ονόματι Fred Riehl. Walters’

υπόθεση

κατατέθηκε στις 5 Ιουνίου στο Ανώτατο Δικαστήριο της κομητείας Gwinnett της Γεωργίας και ζητά απροσδιόριστη χρηματική αποζημίωση από το OpenAI.

Η υπόθεση είναι αξιοσημείωτη λόγω των εκτεταμένων καταγγελιών για ψευδείς πληροφορίες που δημιουργούνται από το ChatGPT και άλλα

. Αυτά τα συστήματα δεν έχουν αξιόπιστο τρόπο να διακρίνουν το γεγονός από τη φαντασία και όταν τους ζητούνται πληροφορίες – ιδιαίτερα αν τους ζητηθεί να επιβεβαιώσουν κάτι που ο ερωτών προτείνει ότι είναι αλήθεια – συχνά επινοούν ημερομηνίες, γεγονότα και αριθμούς.

“Άκουσα για αυτόν τον νέο ιστότοπο, ο οποίος εσφαλμένα υπέθεσα ότι ήταν, σαν, μια σούπερ μηχανή αναζήτησης.”

Συνήθως, αυτές οι κατασκευές δεν κάνουν τίποτα περισσότερο από το να παραπλανούν τους χρήστες ή να σπαταλούν το χρόνο τους. Όμως αρχίζουν να εμφανίζονται περιπτώσεις τέτοιων σφαλμάτων που προκαλούν βλάβη. Αυτά περιλαμβάνουν έναν καθηγητή

απειλώντας να ρίξει την τάξη του

αφού το ChatGPT ισχυρίστηκε ότι οι μαθητές του χρησιμοποίησαν τεχνητή νοημοσύνη για να γράψουν τα δοκίμιά τους και έναν δικηγόρο

αντιμετωπίζει πιθανές κυρώσεις

μετά τη χρήση του ChatGPT για την έρευνα ψεύτικων νομικών υποθέσεων. Ο εν λόγω δικηγόρος πρόσφατα

είπε ένας δικαστής

: “Άκουσα για αυτόν τον νέο ιστότοπο, ο οποίος εσφαλμένα υπέθεσα ότι ήταν, σαν, μια σούπερ μηχανή αναζήτησης.”

Το OpenAI περιλαμβάνει μια μικρή δήλωση αποποίησης ευθύνης στην αρχική σελίδα του ChatGPT, η οποία προειδοποιεί ότι το σύστημα «μπορεί περιστασιακά να παράγει εσφαλμένες πληροφορίες», αλλά η εταιρεία παρουσιάζει επίσης το ChatGPT ως πηγή αξιόπιστων δεδομένων, περιγράφοντας το σύστημα σε αντίγραφο διαφήμισης ως έναν τρόπο «λήψης απαντήσεων» και «μάθησης κάτι νέο.” Ο ίδιος ο διευθύνων σύμβουλος του OpenAI, Sam Altman, έχει πει σε πολλές περιπτώσεις ότι προτιμά να μαθαίνει νέες πληροφορίες από το ChatGPT παρά από βιβλία.

Δεν είναι σαφές, ωστόσο, εάν υπάρχει νομικό προβάδισμα για να θεωρηθεί μια εταιρεία υπεύθυνη για συστήματα τεχνητής νοημοσύνης που παράγουν ψευδείς ή δυσφημιστικές πληροφορίες ή εάν αυτή η συγκεκριμένη υπόθεση έχει ουσιαστική αξία.

Παραδοσιακά στις ΗΠΑ, η Ενότητα 230 προστατεύει τις εταιρείες του Διαδικτύου από νομική ευθύνη για πληροφορίες που παράγονται από τρίτο και φιλοξενούνται στις πλατφόρμες τους. Είναι άγνωστο εάν αυτές οι προστασίες ισχύουν για συστήματα τεχνητής νοημοσύνης, τα οποία δεν συνδέονται απλώς με πηγές δεδομένων, αλλά δημιουργούν εκ νέου πληροφορίες (μια διαδικασία που οδηγεί επίσης στη δημιουργία ψευδών δεδομένων).

Η αγωγή για συκοφαντική δυσφήμιση που κατατέθηκε από τον Walters στη Γεωργία θα μπορούσε να δοκιμάσει αυτό το πλαίσιο. Η υπόθεση αναφέρει ότι ένας δημοσιογράφος, ο Fred Riehl, ζήτησε από το ChatGPT να συνοψίσει ένα

πραγματική υπόθεση ομοσπονδιακού δικαστηρίου

με σύνδεση σε ένα διαδικτυακό PDF. Το ChatGPT απάντησε δημιουργώντας μια ψευδή περίληψη της υπόθεσης που ήταν λεπτομερής και πειστική αλλά λανθασμένη από πολλές απόψεις. Η περίληψη του ChatGPT περιείχε ορισμένες πραγματικά σωστές πληροφορίες αλλά και ψευδείς ισχυρισμούς εναντίον του Walters. Είπε ότι ο Walters πιστεύεται ότι είχε υπεξαιρέσει κεφάλαια από μια μη κερδοσκοπική οργάνωση για τα δικαιώματα των όπλων που ονομάζεται Ίδρυμα Δεύτερης Τροποποίησης «πάνω από 5.000.000 δολάρια». Ο Walters δεν έχει κατηγορηθεί ποτέ για αυτό.

Η Riehl δεν δημοσίευσε ποτέ τις ψευδείς πληροφορίες που δημιουργήθηκαν από το ChatGPT, αλλά έλεγξε τις λεπτομέρειες με άλλο μέρος. Δεν είναι σαφές από τα αρχεία της υπόθεσης πώς ο Walters ανακάλυψε στη συνέχεια αυτή την παραπληροφόρηση.

Συγκεκριμένα, παρά τη συμμόρφωση με το αίτημα της Riehl να συνοψίσει ένα PDF, το ChatGPT δεν μπορεί στην πραγματικότητα να έχει πρόσβαση σε τέτοια εξωτερικά δεδομένα χωρίς τη χρήση πρόσθετων προσθηκών. Η αδυναμία του συστήματος να ειδοποιήσει τη Riehl για αυτό το γεγονός είναι ένα παράδειγμα της ικανότητάς του να παραπλανά τους χρήστες. (Αν και πότε

Το χείλος

δοκίμασε το σύστημα σήμερα για την ίδια εργασία, απάντησε καθαρά και ενημερωτικά, λέγοντας: «Συγγνώμη, αλλά ως μοντέλο που βασίζεται σε κείμενο AI, δεν έχω τη δυνατότητα να έχω πρόσβαση ή να ανοίξω συγκεκριμένα αρχεία PDF ή άλλα εξωτερικά έγγραφα .”)

Eugene Volokh, καθηγητής νομικής που έχει γράψει για το

νομική ευθύνη των συστημάτων AI

σημειώνεται στο α

ανάρτηση

ότι παρόλο που οι σκέφτονται «τέτοιες συκοφαντίες ισχυρίζονται [against AI companies] είναι καταρχήν νομικά βιώσιμες», αυτή η συγκεκριμένη αγωγή «θα πρέπει να είναι δύσκολο να διατηρηθεί». Ο Volokh σημειώνει ότι ο Walters δεν ειδοποίησε το OpenAI για αυτές τις ψευδείς δηλώσεις, δίνοντάς του την ευκαιρία να τις αφαιρέσει και ότι δεν υπήρξαν πραγματικές ζημιές ως αποτέλεσμα της παραγωγής του ChatGPT. «Σε κάθε περίπτωση, ωστόσο, θα είναι ενδιαφέρον να δούμε τι θα συμβεί τελικά εδώ», λέει ο Volokh.

Απευθυνθήκαμε στο OpenAI για σχολιασμό και θα ενημερώσουμε αυτήν την ιστορία αν μάθουμε ξανά.


theverge.com



You might also like


Leave A Reply



Cancel Reply

Your email address will not be published.