Ένα από τα προβλήματα με τα συνομιλητικά chatbot AI σε αυτό το στάδιο είναι ότι τείνουν να έχουν παραισθήσεις. Με άλλα λόγια, δημιουργούν πληροφορίες για να ταιριάζουν στο αίτημα του χρήστη. Το ChatGPT είναι ένα μοντέλο γλώσσας που έχει σχεδιαστεί για να δίνει στον χρήστη μια απάντηση σε μια ερώτηση και με αυτόν τον τρόπο, το chatbot τεχνητής νοημοσύνης θα βρει πληροφορίες για να καλύψει τυχόν κενά ακόμα κι αν αυτό που έρχεται δεν είναι αλήθεια.
Η απόφαση του Schwartz να χρησιμοποιήσει το ChatGPT θα μπορούσε να του κοστίσει την 30ετή δικηγορική του καριέρα
Ένας δικηγόρος χρησιμοποίησε το ChatGPT για να κάνει “νομική έρευνα” και ανέφερε μια σειρά από ανύπαρκτες υποθέσεις σε μια κατάθεση και τώρα έχει πολλά προβλήματα με τον δικαστή pic.twitter.com/AJSE7Ts7W7
— Daniel Feldman (@d_feldman) 27 Μαΐου 2023
Προσπαθώντας να βελτιώσει την κατάθεσή του, ο Schwartz στράφηκε στο ChatGPT για να τον βοηθήσει να βρει παρόμοιες υποθέσεις που έφτασαν στο δικαστήριο. Το ChatGPT δημιούργησε μια λίστα με αυτές τις υποθέσεις: Varghese κατά China Southern Airlines, Shaboon κατά Egyptair, Petersen κατά Iran Air, Martinez κατά Delta Airlines, Estate of Durden κατά KLM Royal Dutch Airlines και Miller κατά United Airlines.” Ακούγεται σαν μια αξιοπρεπής λίστα υποθέσεων που πρέπει να αναφέρετε στον δικαστή. Υπήρχε μόνο ένα μικροσκοπικό ζήτημα· καμία από αυτές τις υποθέσεις δεν ήταν αληθινή! Όλες δημιουργήθηκαν από το ChatGPT.
Ο δικηγόρος δεν θεώρησε ποτέ ότι το chatbot AI θα μπορούσε να του δώσει πλαστές πληροφορίες
Η νομική ομάδα της Avianca και ο δικαστής συνειδητοποίησαν γρήγορα ότι δεν μπορούσαν να βρουν καμία από τις περιπτώσεις που αναφέρονται στην κατάθεση του Schwartz. Σε μια ένορκη κατάθεση που κατέθεσε στο δικαστήριο, ο Schwartz συμπεριέλαβε ένα στιγμιότυπο οθόνης της αλληλεπίδρασής του με το ChatGPT και είπε ότι όσον αφορά το συνομιλητικό chatbot AI, «αγνοούσε την πιθανότητα το περιεχόμενό του να είναι ψευδές». Ο δικαστής έχει προγραμματίσει μια ακρόαση για τον επόμενο μήνα για να «συζητηθούν πιθανές κυρώσεις» για τον Schwartz.
Ας είναι αυτό μια προειδοποίηση για όποιον σκοπεύει να κάνει την τεχνητή νοημοσύνη να κάνει κάποια από τη δουλειά του για αυτούς. Μπορεί να νομίζετε ότι εξοικονομείτε χρόνο, αλλά θα μπορούσατε να καταλήξετε σε μεγαλύτερο πρόβλημα εάν αντικαταστήσετε τη δική σας σκληρή δουλειά με αποτελέσματα από ένα chatbot AI. Δεν θα ήθελα ποτέ τα άρθρα μου να είναι γραμμένα από τεχνητή νοημοσύνη και όχι μόνο βλάπτεις τον εαυτό σου χρησιμοποιώντας την τεχνητή νοημοσύνη, αλλά λες ψέματα στο κοινό σου είτε διεκδικώντας την πατρότητα κάτι που δεν έχεις γράψει, είτε επειδή πιθανώς παρέχεις στο κοινό σου -επάνω πληροφορίες.
Δεν έχει σημασία αν είστε φοιτητής που σχεδιάζετε να χρησιμοποιήσετε ένα chatbot AI για να σας βοηθήσει με μια εργασία που πρέπει να γράψετε ή εάν ένας δικηγόρος θέλει να αναφέρει υποθέσεις. Τα chatbot AI μπορεί να έχουν παραισθήσεις και να σας δίνουν ψεύτικες πληροφορίες. Αυτό δεν σημαίνει ότι δεν μπορούν να είναι χρήσιμα και ότι μπορεί να σας κατευθύνουν προς τη σωστή κατεύθυνση. Αλλά μόλις ολοκληρωθεί η κατάδειξη, εναπόκειται σε εσάς να βεβαιωθείτε ότι οι πληροφορίες που λαμβάνετε είναι νόμιμες.