Το ChatGPT είναι τρομερό στη διάγνωση παιδικών ιατρικών περιπτώσεων, σύμφωνα με νέα μελέτη



Το

του

δεν είναι πιο κοντά στην αντικατάσταση των οικογενειακών σας γιατρών, ως το ολοένα και πιο προηγμένο chatbot

απέτυχε να διαγνώσει με ακρίβεια

η συντριπτική πλειοψηφία των υποθετικών παιδιατρικών περιπτώσεων.

Τα ευρήματα ήταν μέρος του α

νέα μελέτη

Δημοσιεύθηκε στο JAMA Pediatrics στις 2 Ιανουαρίου, που διεξήχθη από ερευνητές από το ιατρικό κέντρο Cohen Children’s στη Νέα Υόρκη. Οι ερευνητές ανέλυσαν τις απαντήσεις του

σε αιτήματα για ιατρική διάγνωση παιδικών ασθενειών και διαπίστωσαν ότι το bot είχε ποσοστό σφάλματος 83 τοις εκατό σε όλες τις δοκιμές.


ΔΕΙΤΕ ΕΠΙΣΗΣ:

5 τρόποι με τους οποίους η

ητή νοημοσύνη άλλαξε το διαδίκτυο το 2023

Η μελέτη χρησιμοποίησε αυτά που είναι γνωστά ως προκλήσεις παιδιατρικών περιπτώσεων ή ιατρικές περιπτώσεις που δημοσιεύτηκαν αρχικά σε ομάδες ιατρών ως ευκαιρίες μάθησης (ή διαγνωστικές προκλήσεις) που περιλαμβάνουν ασυνήθιστες ή περιορισμένες πληροφορίες. Οι ερευνητές πήραν δείγμα 100 προκλήσεων που δημοσιεύθηκαν στο JAMA Pediatrics και το NEJM μεταξύ των ετών 2013 και 2023.

Το ChatGPT παρείχε εσφαλμένες διαγνώσεις για 72 από τις 100 από τις πειραματικές περιπτώσεις που υποβλήθηκαν και δημιούργησε 11 απαντήσεις που θεωρήθηκαν “κλινικά σχετιζόμενες” με τη σωστή διάγνωση, αλλά θεωρήθηκαν πολύ ευρείες για να είναι σωστές.

Οι ερευνητές αποδίδουν μέρος αυτής της αποτυχίας στην αδυναμία του γενεσιουργού AI να αναγνωρίσει σχέσεις μεταξύ ορισμένων καταστάσεων και εξωτερικών ή προϋπαρχουσών περιστάσεων, που συχνά χρησιμοποιούνται για να βοηθήσουν στη διάγνωση ασθενών σε κλινικό περιβάλλον. Για παράδειγμα, το ChatGPT δεν συνέδεσε τις «νευροψυχιατρικές παθήσεις» (όπως ο αυτισμός) με συχνά εμφανιζόμενες περιπτώσεις ανεπάρκειας βιταμινών και άλλων παθήσεων που βασίζονται σε περιοριστική δίαιτα.

Η μελέτη καταλήγει στο συμπέρασμα ότι το ChatGPT χρειάζεται συνεχή εκπαίδευση και συμμετοχή ιατρικών επαγγελματιών που τροφοδοτούν την τεχνητή νοημοσύνη όχι με ένα πηγάδι πληροφοριών που δημιουργείται από το Διαδίκτυο, το οποίο συχνά μπορεί να κυλήσει σε παραπληροφόρηση, αλλά

ελεγμένη ιατρική βιβλιογραφία και εμπειρογνωμοσύνη

.

Τα chatbot που βασίζονται σε τεχνητή νοημοσύνη και βασίζονται σε μοντέλα μεγάλων γλωσσών (LLM) έχουν μελετηθεί στο παρελθόν για την αποτελεσματικότητά τους στη διάγνωση ιατρικών περιπτώσεων και στην εκπλήρωση των καθημερινών εργασιών των γιατρών. Πέρυσι, οι ερευνητές δοκίμασαν την ικανότητα της γενετικής τεχνητής νοημοσύνης να περάσει την τριμερή Εξέταση Ιατρικής Άδειας στις Ηνωμένες Πολιτείες — Πέρασε.

Ωστόσο, ενώ εξακολουθεί να δέχεται έντονη κριτική για τα όρια προπόνησής του και τη δυνατότητα να επιδεινώσει την ιατρική μεροληψία, πολλές ιατρικές ομάδες, συμπεριλαμβανομένων των

Αμερικανική Ιατρική Ένωση

, μην βλέπετε την πρόοδο της τεχνητής νοημοσύνης στο πεδίο απλώς ως απειλή αντικατάστασης. Αντίθετα, τα καλύτερα εκπαιδευμένα AI θεωρούνται ώριμα για τις διοικητικές και επικοινωνιακές τους δυνατότητες, όπως η δημιουργία κειμένου από τον ασθενή, η επεξήγηση διαγνώσεων με κοινούς όρους ή η δημιουργία οδηγιών. Οι κλινικές χρήσεις, όπως και τα διαγνωστικά, παραμένουν ένα αμφιλεγόμενο και δύσκολο να ερευνηθεί, θέμα.

Σε αυτόν τον βαθμό, η νέα έκθεση αντιπροσωπεύει την πρώτη ανάλυση των διαγνωστικών δυνατοτήτων ενός chatbot σε ένα καθαρά παιδιατρικό περιβάλλον — αναγνωρίζοντας την εξειδικευμένη ιατρική εκπαίδευση που έχουν αναληφθεί από επαγγελματίες του ιατρικού τομέα. Οι τρέχοντες περιορισμοί του δείχνουν ότι ακόμη και το πιο προηγμένο chatbot στη δημόσια αγορά δεν μπορεί ακόμη να ανταγωνιστεί το πλήρες φάσμα της ανθρώπινης τεχνογνωσίας.


Θέματα


Τεχνητή Νοημοσύνη Κοινωνικό Καλό


VIA:

mashable.com


Follow TechWar.gr on Google News