Οι νέες κατευθυντήριες γραμμές του Ηνωμένου Βασιλείου για δικαστές που χρησιμοποιούν chatbots AI είναι ένα χάος
Αργά αλλά σταθερά, το κείμενο που δημιουργείται από μοντέλα μεγάλων γλωσσών με τεχνητή νοημοσύνη (LLM) εισχωρεί στην καθημερινότητά μας, συμπεριλαμβανομένων των νομικών αποφάσεων. Νέος
καθοδήγηση που κυκλοφόρησε αυτή την εβδομάδα
από το Δικαστικό Γραφείο του ΗΒ παρέχει στους δικαστές κάποια πρόσθετη σαφήνεια σχετικά με το πότε ακριβώς είναι αποδεκτό ή απαράδεκτο να βασίζονται σε αυτά τα εργαλεία. Η καθ
οδήγηση
του ΗΒ συμβουλεύει τους δικαστές να μην χρησιμοποιούν τα εργαλεία για τη δημιουργία νέων αναλύσεων. Ωστόσο, επιτρέπει τη σύνοψη κειμένων. Εν τω μεταξύ, ένας αυξανόμενος αριθμός δικηγόρων και κατηγορουμένων στις ΗΠΑ βρίσκεται
πρόστιμο και κυρώσεις
για ατημέλητη εισαγωγή της τεχνητής νοημοσύνης στις νομικές τους πρακτικές.
[ Related: “
Radio host sues ChatGPT developer over allegedly libelous claims
” ]
Οι οδηγίες τεχνητής νοημοσύνης του Δικαστικού Γραφείου είναι ένα σύνολο προτάσεων και συστάσεων που προορίζονται να βοηθήσουν τους δικαστές και τους υπαλλήλους τους να κατανοήσουν την τεχνητή νοημοσύνη και τα όριά της καθώς η τεχνολογία γίνεται πιο συνηθισμένη. Αυτές οι κατευθυντήριες γραμμές δεν είναι ποινικοί κανόνες δικαίου αλλά μάλλον ένα «πρώτο βήμα» σε μια σειρά προσπαθειών από το Δικαστικό Γραφείο για να διευκρινιστεί πώς οι δικαστές μπορούν να αλληλεπιδράσουν με την τεχνολογία.
Σε γενικές γραμμές, η νέα καθοδήγηση λέει ότι οι δικαστές μπορεί να βρουν εργαλεία τεχνητής νοημοσύνης όπως το ChatGPT του OpenAI ως εργαλείο έρευνας που συνοψίζει μεγάλους όγκους κειμένου ή για διοικητικές εργασίες, όπως βοήθεια για σύνταξη email ή υπομνήματα. Ταυτόχρονα, προειδοποίησε τους δικαστές να μην χρησιμοποιούν εργαλεία για τη διεξαγωγή νομικής έρευνας που βασίζεται σε νέες πληροφορίες που δεν μπορούν να επαληθευτούν ανεξάρτητα. Όσον αφορά τη διαμόρφωση νομικών επιχειρημάτων, η καθοδήγηση προειδοποιεί ότι τα δημόσια
chatbot
AI απλώς «δεν παράγουν πειστικές αναλύσεις ή συλλογισμούς». Οι κριτές μπορεί να βρουν κάποια οφέλη από τη χρήση ενός chatbot AI για να ανακαλύψουν υλικό που ήδη γνωρίζουν ότι είναι ακριβές στις σημειώσεις καθοδήγησης, αλλά θα πρέπει να απέχουν από τη χρήση των εργαλείων για τη διεξαγωγή νέας έρευνας σε θέματα που δεν μπορούν να επαληθεύσουν οι ίδιοι. Φαίνεται ότι η καθοδήγηση θέτει την ευθύνη στον χρήστη να ξεχωρίσει τα γεγονότα από τη μυθοπλασία στα αποτελέσματα του LLM.
“Αυτοί [AI tools] μπορεί να θεωρηθεί καλύτερα ως ένας τρόπος απόκτησης μη οριστικής επιβεβαίωσης για κάτι, αντί της παροχής αμέσως σωστών γεγονότων», αναφέρει η καθοδήγηση.
Η καθοδήγηση συνεχίζει να προειδοποιεί τους δικαστές ότι τα εργαλεία τεχνητής νοημοσύνης μπορούν να αποκαλύψουν ανακριβείς, ελλιπείς ή μεροληπτικές πληροφορίες –ακόμα και αν τροφοδοτούνται με εξαιρετικά λεπτομερείς ή σχολαστικές προτροπές. Αυτές οι περίεργες κατασκευές τεχνητής νοημοσύνης αναφέρονται γενικά ως “
παραισθήσεις
.» Παρομοίως, συνιστάται στους δικαστές να μην εισάγουν οποιεσδήποτε «προσωπικές ή εμπιστευτικές πληροφορίες» στην υπηρεσία, επειδή αρκετές από αυτές είναι «ανοιχτής φύσης».
«Οποιαδήποτε πληροφορία εισάγετε σε ένα δημόσιο chatbot AI θα πρέπει να θεωρείται ότι δημοσιεύεται σε όλο τον κόσμο», αναφέρει η καθοδήγηση.
Δεδομένου ότι οι πληροφορίες που προέρχονται από μια προτροπή είναι “μη οριστικές” και δυνητικά ανακριβείς, ενώ οι πληροφορίες που τροφοδοτούνται στο LLM δεν πρέπει να περιλαμβάνουν “ιδιωτικές” πληροφορίες που είναι δυνητικά βασικές για την πλήρη αναθεώρηση, για παράδειγμα, του κειμένου μιας αγωγής, δεν είναι σαφές ποια πραγματική χρήση θα ήταν στο νομικό πλαίσιο.
Τα δεδομένα που εξαρτώνται από το περιβάλλον αποτελούν επίσης τομέα ανησυχίας για το δικαστικό γραφείο. Τα πιο δημοφιλή chatbot AI στην αγορά σήμερα, όπως το ChatGPT του OpenAI και το Bard της Google, αναπτύχθηκαν στις ΗΠΑ και με ένα μεγάλο σύνολο δεδομένων εστιασμένων στις ΗΠΑ. Η καθοδήγηση προειδοποιεί ότι η έμφαση στα δεδομένα εκπαίδευσης των ΗΠΑ θα μπορούσε να δώσει στα μοντέλα τεχνητής νοημοσύνης μια «άποψη» του νόμου που στρέφεται προς τα αμερικανικά νομικά πλαίσια και τη θεωρία. Ωστόσο, στο τέλος της ημέρας, σύμφωνα με τις οδηγίες, οι κριτές εξακολουθούν να θεωρούνται υπεύθυνοι για το υλικό που παράγεται στο όνομά τους, ακόμα κι αν αυτό έγινε με τη βοήθεια ενός εργαλείου AI.
Geoffrey Vos, επικεφαλής της Αστικής Δικαιοσύνης στην Αγγλία και την Ουαλία,
σύμφωνα με πληροφορίες
είπε στο Reuters πριν από την αποκάλυψη καθοδήγησης ότι πιστεύει ότι η τεχνητή νοημοσύνη «παρέχει μεγάλες ευκαιρίες για το δικαστικό σύστημα». Συνέχισε λέγοντας ότι πίστευε ότι οι δικαστές ήταν σε θέση να εντοπίσουν νομικά επιχειρήματα που δημιουργήθηκαν με χρήση AI.
«Οι δικαστές είναι εκπαιδευμένοι να αποφασίζουν τι είναι αλήθεια και τι είναι ψευδές και θα πρέπει να το κάνουν στον σύγχρονο κόσμο της τεχνητής νοημοσύνης, όπως ακριβώς έπρεπε να το κάνουν πριν», είπε ο Βος σύμφωνα με το Reuters.
Ορισμένοι κριτές βρίσκουν ήδη την τεχνητή νοημοσύνη «ευχαρίστως χρήσιμη» παρά τις ανησυχίες σχετικά με την ακρίβεια
Η νέα καθοδήγηση έρχεται τρεις μήνες αφότου ένας δικαστής εφετείου του Ηνωμένου Βασιλείου Λόρδος Τζάστις Μπιρς χρησιμοποίησε το ChatGPT για να παράσχει μια περίληψη ενός τομέα δικαίου και στη συνέχεια χρησιμοποίησε μέρος αυτής της περίληψης για να συντάξει μια ετυμηγορία. Ο δικαστής
σύμφωνα με πληροφορίες
χαιρέτισε το ChatGPT ως «χαρούμενα χρήσιμο», εκείνη την εποχή σύμφωνα με
Ο κηδεμόνας
. Μιλώντας σε συνέντευξη Τύπου νωρίτερα φέτος, ο Birss είπε ότι θα πρέπει τελικά να λογοδοτήσει για το περιεχόμενο της απόφασης, ακόμη κι αν δημιουργήθηκε με τη βοήθεια ενός εργαλείου AI.
«Αναλαμβάνω την πλήρη προσωπική ευθύνη για αυτό που κρίνω, δεν προσπαθώ να δώσω την ευθύνη σε κάποιον άλλο», είπε ο Μπιρς.
σύμφωνα με
Η Εφημερίδα της Νομικής
. «
Το
μόνο που έκανε ήταν μια εργασία που επρόκειτο να κάνω και που ήξερα την απάντηση και μπορούσα να αναγνωρίσω ότι ήταν αποδεκτή».
Η έλλειψη σαφών κανόνων που διευκρινίζουν πότε και πώς μπορούν να χρησιμοποιηθούν τα εργαλεία τεχνητής νοημοσύνης σε νομικές υποθέσεις έχει ήδη βάλει ορισμένους δικηγόρους και κατηγορούμενους σε ζεστό νερό. Νωρίτερα φέτος, ένα ζευγάρι Αμερικανών δικηγόρων ήταν
επιβλήθηκε πρόστιμο 5.000 δολαρίων αφού υπέβαλαν δικαστική κατάθεση
που περιείχε ψεύτικες αναφορές που δημιουργήθηκαν από το ChatGPT. Πιο πρόσφατα, ήταν επίσης μια Βρετανίδα
σύμφωνα με πληροφορίες
συνελήφθη να χρησιμοποιεί ένα chatbot AI για να υπερασπιστεί τον εαυτό της σε φορολογική υπόθεση. Κατέληξε να χάσει την υπόθεσή της μετά την έφεση, αφού ανακαλύφθηκε ότι η νομολογία που είχε υποβάλει περιελάμβανε κατασκευασμένες παραισθήσεις από το μοντέλο AI. Το OpenAI έγινε ακόμη και στόχος μήνυσης για συκοφαντική δυσφήμιση νωρίτερα αυτό το έτος, αφού το ChatGPT φέρεται να κατονόμασε έγκυρα έναν παρουσιαστή ραδιοφωνικής εκπομπής ως κατηγορούμενο σε μια υπόθεση υπεξαίρεσης με την οποία δεν είχε καμία σχέση.
[ Related: “
EU’s powerful AI Act is here. But is it too late?
” ]
Το σκοτάδι της τεχνητής νοημοσύνης στις νομικές διαδικασίες μπορεί να χειροτερέψει προτού βελτιωθεί. Αν και η κυβέρνηση Μπάιντεν έχει προσφέρει προτάσεις που διέπουν την ανάπτυξη της τεχνητής νοημοσύνης στις νομικές ρυθμίσεις ως μέρος του πρόσφατου εκτελεστικού του διατάγματος τεχνητής νοημοσύνης, το Κογκρέσο εξακολουθεί να μην έχει καταφέρει να περάσει καμία συνολική νομοθεσία που να θέτει σαφείς κανόνες. Στην άλλη πλευρά του Ατλαντικού, η
Ευρωπαϊκή Ένωση
συμφώνησε πρόσφατα για τον δικό της νόμο για την τεχνητή νοημοσύνη, ο οποίος εισάγει αυστηρότερους κανόνες ασφάλειας και διαφάνειας για ένα ευρύ φάσμα εργαλείων και εφαρμογών τεχνητής νοημοσύνης που θεωρούνται «υψηλού κινδύνου». Αλλά οι πραγματικές κυρώσεις για παραβίαση αυτών των κανόνων πιθανότατα δεν θα δουν το φως της δημοσιότητας μέχρι το 2025 το νωρίτερο. Έτσι, προς το παρόν, οι δικαστές και οι δικηγόροι πετούν σε μεγάλο βαθμό από τη θέση του παντελονιού τους όταν πρόκειται να υποστηρίξουν τα ηθικά όρια της χρήσης της τεχνητής νοημοσύνης.
VIA:
popsci.com
