Modern technology gives us many things.

ChatGPT: προσαρμοσμένα δεδομένα για μια «επιστημονική» μελέτη…


προσαρμοσμένο ChatGPT συγκεντρώνει δεδομένα για μια «επιστημονική» μελέτη… κατόπιν αιτήματος των ερευνητών. Το ChatGPT Generative AI θα μπορούσε πλέον όχι μόνο να γράψει το κείμενο ενός επιστημονικού άρθρου… αλλά και να εφεύρει τα δεδομένα και τα αποτελέσματα!

Το ChatGPT και τα παρόμοια του θα γίνουν οι καλύτεροι φίλοι των επιστημονικών πλαστογράφων; Οι δυνατότητες δημιουργίας περιεχομένου των παραγωγικών γλωσσικών μοντέλων αναγνωρίστηκαν γρήγορα από τους ερευνητές ως πιθανά βοηθήματα για τη συγγραφή επιστημονικών άρθρων.

Αλλά άλλοι προχωρούν παραπέρα και χρησιμοποιούν αυτά τα AI για να σχεδιάσουν εξ ολοκλήρου τα άρθρα τους. Έκτοτε, το πιο πρόσφατο εκδοχή του ChatGPT έχει προσθέσει ένα νέο εργαλείο που του επιτρέπει να διαχειρίζεται υπολογισκά φύλλα και δεδομένα. Μια άλλη απειλή για την επιστημονική αξιοπιστία; Βεβαίως, συμπεραίνουν Ιταλοί συγγραφείς που ζήτησαν από το ChatGPT να προσαρμόσει δεδομένα για να αποδείξει μια ψευδή επιστημονική υπόθεση. Με το άρθρο τους, που δημοσιεύτηκε στις 9 Νοεμβρίου 2023 στο περιοδικό JAMA Ophthalmology, προειδοποιούν για αυτό το νέο εργαλείο που θα μπορούσε να εκραγεί τον αριθμό των ψευδών ερευνών.

 

Ένα ChatGPT πιο «δημιουργικό» από ποτέ

Η τεχνητή νοημοσύνη που σχεδιάστηκε από το OpenAI έχει προκαλέσει αμέτρητους φόβους και ανησυχίες, συμπεριλαμβανομένου αυτού της εξαπάτησης. Χάρη στις «δημιουργικές» του ικανότητες, ο καθένας μπορούσε να του ζητήσει να γράψει οτιδήποτε και τα πάντα για εκείνον, από δοκίμια για μαθητές γυμνασίου και εκκλήσεις για δικηγόρους μέχρι λογοτεχνικά κείμενα που λογοκλοπούν υπάρχοντα έργα ή επιστημονικά άρθρα που διαδίδουν ψευδείς πληροφορίες.

αυτή η δόλια χρήση κινδυνεύει να γίνει γρήγορα μια πραγματική μάστιγα στον ερευνητικό κόσμο. Ήδη, όλο και περισσότερα επιστημονικά άρθρα γράφονται χρησιμοποιώντας το ChatGPT με δόλιο τρόπο (όπως τόνισε ο ερευνητής Guillaume Cabanac).

Μια ενημέρωση σε αυτό το AI θα μπορούσε να το κάνει ακόμη πιο χρήσιμο για τους πλαστογράφους της επιστήμης. Η τελευταία έκδοση του ChatGPT, GPT-4, έχει βελτιωθεί με μια ενότητα που της επιτρέπει να αναλύει δεδομένα, η οποία χρησιμοποιεί τη γλώσσα προγραμματισμού Python. Αυτό του επιτρέπει να κατεβάζει δεδομένα για να κάνει στατιστικές αναλύσεις, κάτι που θα μπορούσε να είναι ένα πολύτιμο εργαλείο για την έρευνα διευκολύνοντας αυτές τις αναλύσεις.

Αλλά οι Ιταλοί ερευνητές Andrea Taloni, Vincenzo Scorcia και Giuseppe Giannaccare, από το Πανεπιστήμιο Magna Graecia του Catanzaro και το Πανεπιστήμιο του Κάλιαρι, μόλις έδειξαν ότι αυτό το εργαλείο μπορεί εύκολα να χρησιμοποιηθεί κατάχρηση για τη δημιουργία ψευδών δεδομένων.

δεδομένα κατ' απαίτηση

“Μια καταπληκτική και τρομακτική εμπειρία”

Για να τονίσουν αυτή τη νέα απειλή, ζήτησαν από το ChatGPT να εφεύρει προσαρμοσμένα δεδομένα που θα μπορούσαν να αποδείξουν μια (ψευδή) επιστημονική υπόθεση. Ως οφθαλμίατροι, του ζήτησαν να παράσχει δεδομένα κατ' απαίτηση που δείχνουν ότι μια χειρουργική τεχνική του οφθαλμού είναι καλύτερη από μια άλλη για τη θεραπεία του κερατόκωνου, μιας εκφυλιστικής οφθαλμικής νόσου στην οποία ο κερατοειδής αποκτά σχήμα κώνου. Του ζητήθηκε να δημιουργήσει τα δεδομένα 250 ασθενών (συνολικά μελετήθηκαν 300 μάτια) και μάλιστα να τηρήσει τα στατιστικά πρότυπα (ποσοστό γυναικών στο δείγμα, εύρος οπτικής οξύτητας των ασθενών πριν από την παρέμβαση και εύρος αναμενόμενων αποτελεσμάτων σε κάθε ομάδα, καθώς και τις επιπλοκές που αναμένεται να έχουν κατά τη διάρκεια και μετά την επέμβαση και το ποσοστό των ασθενών που αναμένεται να εμφανίσουν αυτές τις επιπλοκές).

σε λίγα λεπτά, το ChatGPT δημιούργησε μια λίστα με 250 άτομα (με επώνυμο, όνομα, ηλικία, ημερομηνία επέμβασης, χειρουργική επέμβαση που έγινε κ.λπ.). Και όπως ζητήθηκε, τα αποτελέσματα της στατιστικής ανάλυσης των δεδομένων που εφευρέθηκε από την τεχνητή νοημοσύνη έδειξαν ότι μία από αυτές τις χειρουργικές τεχνικές παρήγαγε καλύτερα αποτελέσματα… κάτι που είναι εντελώς ψευδές στην πραγματικότητα.

Υπογραμμίζοντας την ευκολία με την οποία αδίστακτοι ερευνητές μπορούσαν να κατασκευάσουν επιστημονικά αποτελέσματα μέσα σε λίγα λεπτά. “Η ακρίβεια των δεδομένων ξεπέρασε τις προσδοκίες μας, για να είμαι ειλικρινής ήταν μια εκπληκτική και τρομακτική εμπειρία”παραδέχεται τον Giuseppe Giannaccare στο MedPage Medical Media. “Το κουτί της Πανδώρας μόλις άνοιξε και δεν γνωρίζουμε ακόμα πώς θα αντιδράσει η επιστημονική κοινότητα σε κακές χρήσεις και απειλές που σχετίζονται με την Τεχνητή Νοημοσύνη”.

 

Η βαθιά ανάλυση του μπορεί να δείξει ότι είναι προσαρμοσμένα δεδομένα

Ωστόσο, τα δεδομένα που δημιουργούνται από AI μπορεί να είναι αναγνωρίσιμα. Το περιοδικό Nature ζήτησε από τους βιοστατιστικούς του Πανεπιστημίου του Μάντσεστερ Jack Wilkinson και Xeven Lu να ρίξουν μια πιο προσεκτική ματιά στα δεδομένα για να δουν αν βρήκαν σημάδια απάτης.

Και πράγματι, βρήκαν ορισμένα λάθη, για παράδειγμα αποκλίσεις μεταξύ των ονομάτων ορισμένων ασθενών και του φύλου τους, καθώς και έλλειψη συσχέτισης μεταξύ της οπτικής οξύτητας των ασθενών πριν και μετά την επέμβαση.

Ωστόσο, οι Ιταλοί ερευνητές απάντησαν στο MedPage επισημαίνοντας ότι οι οδηγίες τους για το ChatGPT ήταν πολύ βασικές και ότι οι καλύτερες οδηγίες θα παρήγαγαν σίγουρα δεδομένα πιο ρεαλιστικά και πιο δύσκολο να εντοπιστούν ως κατασκευασμένα. «Τα καλύτερα σχεδιασμένα μηνύματα θα μπορούσαν να περιλαμβάνουν πιο συγκεκριμένους κανόνες για τη διόρθωση αυτών των σφαλμάτων ή άλλων πιθανών ελαττωμάτων. Στο μέλλον, θα δούμε μια διελκυστίνδα μεταξύ προσπαθειών απάτης με χρήση τεχνητής νοημοσύνης και συστημάτων ανίχνευσης».

 

Ας ελπίσουμε ότι τα συστήματα ανίχνευσης θα κερδίσουν τη μάχη και θα μας εμποδίσουν να πνιγούμε σε έναν ωκεανό ψευδοεπιστήμης.

 

Sciences et avenir

The post ChatGPT: δεδομένα κατ' απαίτηση για μια «επιστημονική» μελέτη… εμφανίστηκε πρώτα στο GizChina Greece.



VIA: gr.gizchina.com

Follow TechWar.gr on Google News

Απάντηση