ΕΠΙΣΤΗΜΕΣ
Το ChatGPT διέγνωσε σπάνια πάθηση σε δευτερόλεπτα: Μπορεί να γίνει γιατρός;
Κάποιες ικανότητές του εντυπωσιάζουν και θυμίζουν γιατρό με εμπειρία. Αλλά εξακολουθεί να κάνει σοβαρά λάθη και δεν έχει ηθική πυξία.
Ο Δρ Isaac Kohane, ο οποίος είναι τόσο επιστήμονας υπολογιστών στο Χάρβαρντ όσο και γιατρός, συνεργάστηκε με δύο συναδέλφους για να δοκιμάσει το ChatGPT 4, με έναν κύριο στόχο: Να δει πώς αποδίδει το νεότερο μοντέλο τεχνητής νοημοσύνης της OpenAI σε ιατρικό περιβάλλον.
«Με έκπληξη διαπίστωσα πως αποδίδει καλύτερα από πολλούς γιατρούς που έχω παρατηρήσει», λέει στο βιβλίο, «The AI Revolution in Medicine», που συνυπογράφει ο ανεξάρτητος δημοσιογράφος Carey Goldberg και ο αντιπρόεδρος έρευνας της Microsoft, Peter Lee.
Στο βιβλίο, ο Kohane λέει ότι το GPT-4, το οποίο κυκλοφόρησε τον Μάρτιο του 2023, απαντά σωστά στις ερωτήσεις αδειοδότησης ιατρικών εξετάσεων στις ΗΠΑ περισσότερο από το 90% των περιπτώσεων. Είναι πολύ καλύτερος εξεταστής από τα προηγούμενα μοντέλα ChatGPT AI, GPT-3 και -3.5, και καλύτερο από ορισμένους εξουσιοδοτημένους γιατρούς.
Ωστόσο, το GPT-4 δεν είναι απλώς ένας καλός ανιχνευτής στοιχείων. Είναι επίσης σπουδαίος μεταφραστής. Στο βιβλίο είναι ικανό να μεταφράσει τις πληροφορίες εξιτηρίου για έναν ασθενή που μιλάει πορτογαλικά και να αποδώσει την περίεργη τεχνική ορολογία σε κάτι που θα μπορούσαν εύκολα να διαβάσουν οι μαθητές της 6ης δημοτικού.
Όπως εξηγούν οι συγγραφείς με ζωντανά παραδείγματα, το GPT-4 μπορεί επίσης να δώσει στους γιατρούς χρήσιμες συμβουλές για το πώς να μιλήσουν στους ασθενείς για την κατάστασή τους με συμπονετική, ξεκάθαρη γλώσσα, ενώ μπορεί να διαβάσει εκτενείς αναφορές ή μελέτες και να τις συνοψίσει σε δευτερόλεπτα. Η τεχνολογία μπορεί ακόμη και να εξηγήσει το σκεπτικό της μέσω προβλημάτων με τρόπο που απαιτεί κάποιο μέτρο αυτού που μοιάζει με ανθρώπινη νοημοσύνη.
Αλλά αν ρωτήσετε το GPT-4 πώς τα κάνει όλα αυτά, πιθανότατα θα σας πει ότι όλη η ευφυΐα του εξακολουθεί να «περιορίζεται σε μοτίβα και στα δεδομένα και δεν περιλαμβάνει αληθινή κατανόηση ή πρόθεση». Αυτό είπε το GPT-4 στους συγγραφείς του βιβλίου, όταν το ρώτησαν αν θα μπορούσε πράγματι να συμμετάσχει σε αιτιώδη συλλογιστική. Ακόμη και με τέτοιους περιορισμούς, όπως λέει ο Kohane στο βιβλίο, το GPT-4 μπορεί να μιμηθεί τον τρόπο με τον οποίο οι γιατροί διαγιγνώσκουν καταστάσεις με εκπληκτική – αν και ατελής – επιτυχία.
Πώς το GPT-4 μπορεί να κάνει διάγνωση σαν γιατρός
Ο Kohane χρησιμοποιεί το GPT -4 σε ένα πείραμα κλινικής σκέψης στο βιβλίο, βασισμένο σε μια πραγματική υπόθεση που αφορούσε ένα νεογέννητο βρέφος που παρακολουθούσε αρκετά χρόνια νωρίτερα. Δίνοντας στο bot μερικές βασικές λεπτομέρειες από μια φυσική εξέταση του βρέφους, καθώς και κάποιες πληροφορίες από υπερηχογράφημα και επίπεδα ορμονών, το μηχάνημα μπόρεσε να διαγνώσει σωστά μια πάθηση, που εμφανίζεται σε 1 στα 100.000 άτομα και ονομάζεται συγγενής υπερπλασία των επινεφριδίων. «Έκανε τη διάγνωση, όπως θα την έκανα κι εγώ, με όλα τα χρόνια σπουδών και εμπειρίας μου».
Ο γιατρός εντυπωσιάστηκε και τρομοκρατήθηκε
«Από τη μια πλευρά, έκανα μια περίπλοκη ιατρική συνομιλία με έναν υπολογιστή», έγραψε, προσθέτοντας: «Από την άλλη όμως τρόμαξα όταν συνειδοτοποίησα τι εκατομμύρια οικογένειες θα είχαν σύντομα πρόσβαση σε αυτήν την εντυπωσιακή ιατρική εμπειρία. Γιατί δεν μπορώ να σκεφτώ πώς θα μπορούσαμε να εγγυηθούμε ή να πιστοποιήσουμε ότι οι συμβουλές του GPT-4 θα ήταν ασφαλείς ή αποτελεσματικές».
Το ChatGPT δεν είναι πάντα σωστό — και δεν έχει ηθική πυξίδα
Το GPT-4 δεν είναι πάντα αξιόπιστο και το βιβλίο είναι γεμάτο με παραδείγματα των σφαλμάτων του. Κυμαίνονται από απλά γραφικά λάθη έως μαθηματικά λάθη όπως η ανακριβής «λύση» ενός παζλ Sudoku. Τα λάθη είναι συχνά ανεπαίσθητα και το σύστημα έχει την τάση να ισχυρίζεται ότι έχει δίκιο, ακόμη και όταν αμφισβητείται. Στην ιατρική όμως ένας λανθασμένος αριθμός ή ένα λάθος υπολογισμένο βάρος θα μπορούσε να οδηγήσει σε σοβαρότατα σφάλματα στη συνταγογράφηση ή στη διάγνωση.
Όπως και τα προηγούμενα GPT, το GPT-4 μπορεί επίσης να αρνηθεί να απαντήσει σε αιτήματα και δεν μπαίνει καθόλου σε ηθικής φύσεως ζητήματα.
Όταν ρωτήθηκε για το θέμα αυτό από τους συγγραφείς του βιβλίου, η GPT-4 είπε «Δεν σκοπεύω να εξαπατήσω ή να παραπλανήσω κανέναν, αλλά μερικές φορές κάνω λάθη ή υποθέσεις που βασίζονται σε ελλιπή ή ανακριβή δεδομένα. Επίσης, δεν έχω την κλινική κρίση ή την ηθική ευθύνη ενός ανθρώπου γιατρού ή νοσηλευτή»
Πηγή: naftemporiki.gr