Το Ανώτατο Δικαστήριο των ΗΠΑ προειδοποιεί για τους κινδύνους της τεχνητής νοημοσύνης στο νομικό επάγγελμα
Το Ανώτατο Δικαστήριο των
ΗΠΑ
ασχολήθηκε με τη χρήση της τεχνητής νοημοσύνης (AI) στο νομικό σύστημα, αναγνωρίζοντας τις δυνατότητές της ενώ προειδοποίησε κατά της «απανθρωποποίησης του νόμου».
Δημοσιεύθηκε την Κυριακή, η
Έκθεση τέλους έτους 2023 για το ομοσπονδιακό δικαστικό σώμα
προσφέρει μια επισκόπηση 13 σελίδων του περασμένου έτους στο νομικό σύστημα των ΗΠΑ. Φέτος, ο επικεφαλής της δικαιοσύνης των ΗΠΑ
John
G. Roberts, Jr. επέλεξε να συνεχίσει την ιστορία της αντιμετώπισης “ένα σημαντικό ζήτημα που σχετίζεται με ολόκληρο το ομοσπονδιακό δικαστικό σύστημα” εστιάζοντας στην τεχνητή νοημοσύνη, συγκρίνοντας τη μηχανική μάθηση με τις προηγούμενες τεχνολογικές εξελίξεις, όπως οι προσωπικούς υπολογιστές.
ΔΕΙΤΕ ΕΠΙΣΗΣ:
Το
ChatGPT
γράφει νομοθεσία τώρα
«Για όσους δεν μπορούν να αντέξουν οικονομικά έναν δικηγόρο, η τεχνητή νοημοσύνη μπορεί να βοηθήσει», είπε ο Roberts. “Οδηγεί νέα, εξαιρετικά προσιτά εργαλεία που παρέχουν απαντήσεις σε βασικές ερωτήσεις, όπως πού να βρείτε πρότυπα και έντυπα δικαστηρίου, πώς να τα συμπληρώσετε και πού να τα φέρετε για παρουσίαση στον δικαστή — όλα αυτά χωρίς να φύγετε από το σπίτι.”
Ωστόσο, αν και ο Roberts αναγνώρισε τα οφέλη που μπορεί να προσφέρει η τεχνητή νοημοσύνη, σημείωσε επίσης ότι ενέχει κινδύνους, ιδιαίτερα όταν εφαρμόζεται ακατάλληλα. Ειδικότερα, σημείωσε ότι πολλές αποφάσεις στο δικαστικό σύστημα απαιτούν ανθρώπινη αξιολόγηση, διακριτικότητα και κατανόηση των αποχρώσεων. Η απλή ανάθεση μιας τέτοιας ισχύος σε έναν αλγόριθμο είναι πιθανό να οδηγήσει σε μη ικανοποιητικά και άδικα
αποτελέσματα
,
ειδικά λαμβάνοντας υπόψη ότι
Τα μοντέλα AI συχνά περιέχουν ακούσια προκατάληψη.
«Σε ποινικές υποθέσεις, η χρήση της τεχνητής νοημοσύνης για την αξιολόγηση του κινδύνου πτήσης, της υποτροπής και άλλων κατά μεγάλο βαθμό διακριτικών αποφάσεων που περιλαμβάνουν προβλέψεις έχει δημιουργήσει ανησυχίες σχετικά με τη δέουσα διαδικασία, την αξιοπιστία και την πιθανή μεροληψία», έγραψε ο Roberts. «Τουλάχιστον επί του παρόντος, οι μελέτες δείχνουν μια επίμονη αντίληψη του κοινού για ένα «κενό δικαιοσύνης ανθρώπου-AI», που αντικατοπτρίζει την άποψη ότι οι ανθρώπινες αποφάσεις, παρά τα ελαττώματα τους, είναι πιο δίκαιες από ό,τι φτύνει η μηχανή».
Ο Ρόμπερτς δήλωσε πράγματι ότι πολλές υποθέσεις χρήσης τεχνητής νοημοσύνης βοηθούν το δικαστικό σύστημα να επιλύει υποθέσεις με «δίκαιο, γρήγορο και ανέξοδο» τρόπο. Ωστόσο, προειδοποίησε ότι η τεχνητή νοημοσύνη δεν είναι απαραιτήτως κατάλληλη για όλες τις καταστάσεις και ότι «τα δικαστήρια θα πρέπει να εξετάσουν τις σωστές χρήσεις της σε δικαστικές διαφορές» καθώς η τεχνολογία εξελίσσεται.
«Προβλέπω ότι οι ανθρώπινοι δικαστές θα είναι εδώ για λίγο», είπε ο Ρόμπερτς. “Αλλά με την ίδια σιγουριά, προβλέπω ότι η δικαστική
εργασία
—ιδιαίτερα σε δοκιμαστικό επίπεδο— θα επηρεαστεί σημαντικά από την τεχνητή νοημοσύνη. Αυτές οι αλλαγές θα περιλαμβάνουν όχι μόνο τον τρόπο με τον οποίο οι δικαστές κάνουν τη δουλειά τους, αλλά και πώς κατανοούν τον ρόλο που παίζει η τεχνητή νοημοσύνη στην υποθέσεις που έρχονται ενώπιόν τους».
Η τεχνητή νοημοσύνη επηρεάζει ήδη το νομικό σύστημα των ΗΠΑ
Δυστυχώς, η κατανόηση της τεχνητής νοημοσύνης από τους επαγγελματίες νομικούς υστερεί ήδη σε σχέση με την υπερβολική εφαρμογή σε τουλάχιστον λίγες περιπτώσεις, με την τεχνολογία μηχανικής εκμάθησης να έχει αμφίβολο αντίκτυπο στο νομικό σύστημα των ΗΠΑ μέχρι στιγμής.
Πέρυσι επιβλήθηκαν πρόστιμο σε δύο δικηγόρους επειδή ανέφεραν ανύπαρκτες υποθέσεις σε νομική κατάθεση μετά από χρήση του ChatGPT του OpenAI. Το chatbot της τεχνητής νοημοσύνης είχε κατασκευάσει πλήρως έξι υποθέσεις, στις οποίες οι δικηγόροι προσπάθησαν στη συνέχεια να βασιστούν στα επιχειρήματά τους. Σύμφωνα με έναν από αυτούς, «αγνοούσε την πιθανότητα το περιεχόμενό του να είναι ψευδές».
Αν και αυτή η υπόθεση αναφέρθηκε ευρέως, δεν φαίνεται να έχουν λάβει όλοι οι δικηγόροι το σημείωμα ότι βασίζονται πολύ στην τεχνητή νοημοσύνη.
Ένας άλλος αμερικανός δικηγόρος ανασύρθηκε πρόσφατα επειδή ανέφερε επίσης ψεύτικες υποθέσεις
έχοντας αποτύχει να τα ελέγξει μετά τον πελάτη του
τα δημιούργησε χρησιμοποιώντας το Google Bard
. Ο εν λόγω πελάτης αποβλήθηκε από τον πρώην δικηγόρο του Τραμπ Μάικλ Κοέν, ο οποίος δήλωσε την περασμένη εβδομάδα ότι πίστευε ότι ο Μπαρντ ήταν μια «υπερφορτισμένη μηχανή αναζήτησης» και δεν ήξερε ότι θα μπορούσε να παράγει αποτελέσματα.
Έχουν επίσης γίνει προσπάθειες να χρησιμοποιηθούν chatbots AI για τη δημιουργία νομικών επιχειρημάτων. Στις αρχές του περασμένου έτους, η διαδικτυακή νομική υπηρεσία DoNotPay ακύρωσε τα σχέδιά της να εκπροσωπήσει το chatbot με τεχνητή νοημοσύνη έναν κατηγορούμενο στο δικαστήριο, αφού προειδοποιήθηκε ότι θα μπορούσε να χρεωθεί για μη εξουσιοδοτημένη άσκηση του δικαίου. Το chatbot του DoNotPay αναπτύχθηκε χρησιμοποιώντας το ChatGPT.
εταιρεία AI
Φωτεινότητα
διεξήγαγαν επίσης μια επίδειξη του νόμιμου μοντέλου Autopilot τους σε μεγάλη γλώσσα τον περασμένο Νοέμβριο, αυτοματοποιώντας μια διαπραγμάτευση συμβολαίου «χωρίς ανθρώπινη παρέμβαση». Η τεχνητή νοημοσύνη χρησιμοποιείται ακόμη και από νομοθέτες για τη σύνταξη νομοθεσίας, τόσο εντός των ΗΠΑ όσο και διεθνώς.
Όποιος έχει συντάξει ή διαβάσει ένα νομικό έγγραφο θα γνωρίζει ότι είναι συνήθως μια επίπονη εργασία που απαιτεί ανάλυση μακρών, θαμπών σελίδων περίπλοκου, δυσνόητου κειμένου. Το να ζητάτε απλώς από μια τεχνητή νοημοσύνη να ελέγξει μια σύμβαση, να αξιολογήσει μια νομική υποβολή ή να δημιουργήσει μια ένορκη δήλωση μπορεί να φαίνεται σαν μια πολύ πιο γρήγορη, λιγότερο επώδυνη λύση. Ωστόσο, ακόμη και η χρήση της τεχνητής νοημοσύνης ως βοηθητικού εργαλείου εγκυμονεί κινδύνους, όπως
οι άνθρωποι μπορεί υποσυνείδητα να απορροφήσουν τις προκαταλήψεις του
.
Μπορεί να υπάρχουν μερικές προσεκτικά μελετημένες περιπτώσεις χρήσης για αλγόριθμους μηχανικής εκμάθησης στο νομικό σύστημα. Ωστόσο, η τεχνολογία πρέπει να προσεγγίζεται με προσοχή. Η αδικαιολόγητη εξάρτηση από τη νομοθεσία στην τεχνητή νοημοσύνη ενέχει πραγματικό κίνδυνο περαιτέρω σίγασης της ανθρωπότητας σε ένα ήδη διαβόητο γραφειοκρατικό σύστημα.
Θέματα
Τεχνητή νοημοσύνη
VIA:
mashable.com

