Σε μια πρόσφατη δικαστική υπόθεση, ένας δικηγόρος βασίστηκε στο ChatGPT για νομική έρευνα, με αποτέλεσμα την υποβολή ψευδών πληροφοριών. Το περιστατικό ρίχνει φως στους πιθανούς κινδύνους που συνδέονται με την τεχνητή νοημοσύνη στον νομικό τομέα, συμπεριλαμβανομένης της διάδοσης παραπληροφόρησης.
Η υπόθεση περιστράφηκε γύρω από έναν άνδρα που μήνυσε μια αεροπορική εταιρεία για υποτιθέμενο προσωπικό τραυματισμό. Η νομική ομάδα του ενάγοντα κατέθεσε ένα πρακτικό, αναφέροντας αρκετές προηγούμενες δικαστικές υποθέσεις για να υποστηρίξει τα επιχειρήματά της, επιδιώκοντας να δημιουργήσει νομικό προηγούμενο για την αξίωσή τους. Ωστόσο, οι δικηγόροι της αεροπορικής εταιρείας ανακάλυψαν ότι ορισμένες από τις υποθέσεις που αναφέρονται δεν υπήρχαν και ειδοποίησαν αμέσως τον προεδρεύοντα δικαστή.
Ο δικαστής Kevin Castel, που προεδρεύει της υπόθεσης, εξέφρασε την έκπληξή του για την κατάσταση, χαρακτηρίζοντάς την ως «πρωτοφανή περίσταση». Με εντολή του ο δικαστής ζήτησε εξηγήσεις από τη νομική ομάδα του ενάγοντα.
Ο Steven Schwartz, ένας συνάδελφος του κύριου δικηγόρου, ομολόγησε ότι χρησιμοποίησε το ChatGPT για να αναζητήσει παρόμοια νομικά προηγούμενα. Σε γραπτή δήλωση, ο Schwartz εξέφρασε τη βαθιά λύπη του που «δεν είχε χρησιμοποιήσει ποτέ στο παρελθόν την τεχνητή νοημοσύνη για νομική έρευνα και δεν γνώριζε ότι το περιεχόμενό του θα μπορούσε να είναι ψευδές».

Τα στιγμιότυπα οθόνης που επισυνάπτονται στο αρχείο έδειξαν μια συνομιλία μεταξύ του Schwartz και του ChatGPT. Στην προτροπή, ο Schwartz ρώτησε εάν μια συγκεκριμένη υπόθεση, η Varghese κατά China Southern Airlines Co Ltd, ήταν γνήσια.
Το ChatGPT επιβεβαίωσε την αυθεντικότητά του, υποδεικνύοντας ότι η υπόθεση μπορούσε να βρεθεί σε νομικές βάσεις δεδομένων αναφοράς όπως το LexisNexis και το Westlaw. Ωστόσο, οι μεταγενέστερες έρευνες αποκάλυψαν ότι η υπόθεση δεν υπήρχε, οδηγώντας σε περαιτέρω αμφιβολίες σχετικά με τις άλλες υποθέσεις που παρέχονται από το ChatGPT.
Αυτό το γεγονός έχει προκαλέσει συζητήσεις εντός της νομικής κοινότητας σχετικά με την κατάλληλη χρήση των εργαλείων τεχνητής νοημοσύνης στη νομική έρευνα και την ανάγκη για ολοκληρωμένες οδηγίες για την πρόληψη παρόμοιων περιστατικών.
Πηγή: NYT