Apa yang Dapat Ditawarkan ChatGPT ke Kedokteran?

Beberapa minggu yang lalu, ChatGPT lulus US Medical Licensing Examination (USMLE), yang diwajibkan bagi semua dokter untuk berpraktik di Amerika Serikat. Chatbot lulus kuis mikrobiologi yang dirancang oleh ahli mikrobiologi Alex Berezow, PhD, dengan gemilang. Menurut Berezow, 10 soal tersebut cocok untuk ujian akhir tingkat perguruan tinggi. Di Universitas Stanford, sebagian besar siswa menggunakan ChatGPT untuk ujian akhir mereka.

“Hasilnya pada akhirnya menunjukkan bahwa model linguistik besar, di mana ChatGPT dilatih, memiliki potensi untuk membantu dalam pelatihan medis dan bahkan pengambilan keputusan klinis,” kata Tiffany H. Kung, MD, seorang tutor residen di Harvard School of Medicine, Boston, Massachusetts, dan rekan-rekannya, yang menyelidiki kinerja ChatGPT di USMLE dalam studi mereka.

Sejak startup AS OpenAI membuat prototipe chatbot ChatGPT dapat diakses secara bebas oleh publik pada November 2022, aplikasi potensial sistem dialog berbasis teks telah menimbulkan kehebohan. Mereka termasuk pembuatan teks, terjemahan, dan dokumen otomatis. Menurut perkiraan, OpenAI telah mendaftarkan lebih dari 100 juta pengguna sejak awal Februari.

Karena ChatGPT secara permanen mengubah banyak industri dan bidang kehidupan, ini menimbulkan harapan dan ketakutan secara global. Ada banyak ketidakpastian. Distrik sekolah New York telah melarang ChatGPT. Apakah ini keputusan yang tepat? Ilmuwan dari Technical University of Munich (TUM) dan Ludwig Maximilian University of Munich berpendapat bahwa larangan itu “solusi yang salah dan terlalu nyaman.” Dalam kertas posisinya, mereka mendemonstrasikan bahwa model linguistik seperti ChatGPT dapat menghasilkan kesetaraan pendidikan yang lebih besar.

Enkelejda Kasneci, PhD, Profesor Ilmu Pendidikan Liesel Beckmann yang Terhormat di TUM dan koordinator makalah posisi, menyebut pengembangan model linguistik seperti ChatGPT sebagai tonggak teknologi. “Tidak ada jalan untuk mundur. Alatnya ada di dunia, mereka akan menjadi lebih baik, dan kita harus belajar bagaimana menggunakannya secara konstruktif.”

Template Sudah Tersedia

Banyak yang terjadi dalam pengembangan model linguistik modern, kata Jens Kleesiek, MD, PhD, dokter dan ilmuwan komputer di Institute for Artificial Intelligence in Medicine of Essen University Hospital di Jerman, pada acara ChatGPT in Healthcare. “Itu semua terjadi sekaligus,” kata Kleesiek. Selain OpenAI, Google telah mengumumkan chatbot Bard, yang merupakan tanggapan langsung terhadap ChatGPT.

Ada baiknya membuat akun OpenAI dan mencoba sendiri sejauh mana chatbot sekarang dapat membantu menulis laporan medis, membuat formulir persetujuan, dan menanggapi pertanyaan pasien. Saat melakukannya, penting untuk menggunakan prompt (input) dengan kata-kata yang tepat jika memungkinkan dan untuk memeriksa dan memperbaiki respons selanjutnya.

Di Promptbase, seseorang dapat menemukan instruksi dan membeli prompt siap pakai. ChatGPT sudah menyediakan berbagai template yang sangat berguna.

Misalnya, salah satu pertanyaan dari kuis mikrobiologi Berezow adalah sebagai berikut: “Seorang pasien datang ke ruang gawat darurat dengan sakit kepala parah dan leher kaku. Dokter meresepkan pungsi lumbal untuk mengumpulkan cairan serebrospinal. Pewarnaan Gram dari cairan serebrospinal menunjukkan adanya diplokokus Gram-negatif. Apa diagnosisnya?”

ChatGPT menjawab dengan benar: “Berdasarkan informasi yang Anda berikan, pewarnaan Gram cairan serebrospinal menunjukkan adanya diplokokus Gram-negatif, yaitu bakteri yang biasanya berbentuk oval dan berpasangan. Temuan ini konsisten dengan diagnosis meningitis.”

Keterbatasan Tetap

Tanggapan seperti ini membuat orang cepat lupa bahwa kecerdasan buatan (AI) modern bukanlah kecerdasan dalam arti kata yang biasa. Sebaliknya, itu adalah pengenalan pola. Ini menyusun kalimat berdasarkan perhitungan probabilitas. Akibatnya, ChatGPT memiliki keterbatasan.

OpenAI sendiri menunjukkan bahwa ChatGPT dapat menghasilkan respons yang terdengar masuk akal tetapi salah atau tidak masuk akal. Model juga bereaksi secara sensitif terhadap perubahan input atau upaya berkali-kali dengan permintaan input yang sama.

Selain itu, ChatGPT sering merespons secara berbelit-belit, terlalu sering menggunakan formulasi tertentu, dan suka menggunakan klise. “Ini semua hal yang tidak kita inginkan dalam pengobatan,” kata Kleesiek.

Sumber yang tidak diketahui

Salah satu batasan signifikan adalah saat ini tidak mungkin untuk mengetahui dari mana sumber AI diambil saat merumuskan respons spesifiknya, kata Ute Schmid, PhD, di acara ChatGPT dan Model Linguistik Lainnya: Antara Hype dan Kontroversi. Schmid memimpin Kelompok Kerja Sistem Kognitif di Fakultas Ilmu Komputer di Universitas Bamberg, Jerman.

Menurut pendapat Kleesiek, dan menggunakan contoh laporan medis, karena keterbatasannya, model linguistik menghadirkan tantangan berikut:

Fakta harus disajikan dengan andal dan ringkas.

Untuk keselamatan pasien, obat dan dosis yang disarankan harus benar.

Penggunaan ChatGPT harus menghemat waktu dalam komposisi dan harus terintegrasi dengan baik ke dalam alur kerja.

Pertanyaan tentang kewajiban, perlindungan data, dan hak cipta harus diselesaikan.

Dalam sebuah komentar di Nature, Claudi L. Bockting, PhD, profesor psikologi klinis di University of Amsterdam, dan rekan-rekannya mencantumkan lima aspek berikut yang harus dipertimbangkan dalam pengembangan dan penelitian ChatGPT lebih lanjut:

Menetapkan audit atas tanggapan masyarakat

Mengembangkan peraturan untuk tanggung jawab

Berinvestasi dalam model linguistik yang benar-benar terbuka (bergantung pada bagaimana model dilatih, mereka mengandung bias tertentu dari pabrikan; target potensial untuk pembuatan opini)

Menggunakan manfaat AI

Memperluas perdebatan dan menangani teknologi secara kritis

Kleesiek melihat banyak aplikasi potensial dalam kedokteran untuk ChatGPT dan alat serupa, seperti berikut ini:

Penataan data (retrospektif/selama input)

Penyaringan data

Meringkas riwayat medis (persyaratannya adalah keandalan)

Mengumpulkan riwayat kasus (interaktif dengan pasien)

Mediasi informasi dalam bahasa yang disesuaikan

“Terjemahan” temuan

Penelitian literatur

Penggantian beberapa percakapan dengan staf perawat

Tulisan medis

Menghubungkan dengan model gambar generatif

Kleesiek menggambarkan kombinasi ChatGPT dengan algoritme AI lainnya sebagai “sangat menarik” untuk pengobatan. Dalam sebuah penelitian yang baru-baru ini diterbitkan di Radiologi, para peneliti memeriksa sejauh mana ChatGPT dapat meningkatkan interpretasi diagnostik berbantuan komputer (CAD) dalam mamografi. Dengan mengintegrasikan ChatGPT ke dalam sistem CAD, pasien atau gambar tertentu dapat ditanyakan. Pembelajaran AI juga dapat digunakan untuk mendapatkan wawasan yang didukung data tentang pedoman yang ada dan untuk menemukan biomarker berbasis gambar yang berpotensi baru.

“Saat menggunakan teknologi berbasis AI seperti ChatGPT, penting untuk melanjutkan dengan hati-hati,” tulis penulis penelitian. Terlepas dari tantangannya, mereka melihat “banyak potensi” untuk teknologi untuk mendukung keputusan klinis dan bahkan meningkatkan kelayakan prosedur pencitraan.

Aplikasi Di Bawah Investigasi

Kleesiek mempresentasikan dua studi tentang model linguistik transformator dari kategori yang sama yang digunakan oleh Generative Pre-trained Transformer 3 (GPT-3) OpenAI. Pada studi pertama, model linguistik digunakan untuk menemukan informasi spesifik dalam teks dengan cepat terkait temuan. Contoh prompt adalah, “Apakah pasien mengalami infeksi?”

“Kami melihat bahwa model kemudian tidak merespons dengan bebas tetapi malah dapat dimengerti. Kami kemudian menyoroti informasi ini dalam teks untuk mencapai ketertelusuran yang tepat dan keandalan tertentu,” jelas Kleesiek. Dengan cara ini, dapat dipahami bahwa tidak ada yang dibayangkan atau dibuat-buat dan tanggapannya didasarkan pada fakta.

Studi “Ekstraksi Informasi Dari Laporan Radiologi Berstruktur Lemah Dengan Kueri Bahasa Alami” saat ini sedang ditinjau.

Sebuah studi yang sudah dipublikasikan menilai respons terapeutik terhadap temuan radiologis. Idenya adalah chatbots atau model linguistik dapat digunakan untuk meringkas riwayat medis yang kompleks.

“Ini untuk menemukan, jika terjadi penyakit tumor, apakah ada perburukan, perbaikan, atau respons terapeutik parsial. Dari sini, kami menemukan bahwa jika ada temuan yang jelas, mesin bekerja sama baiknya dengan ahli radiologi, “kata Kleesiek.

“Tapi bagaimana dengan temuan yang tidak meyakinkan? Tidak meyakinkan, misalnya, jika seorang pasien memiliki lesi di paru-paru dan satu di hati, yang satu bertambah besar dan yang lainnya lebih kecil.” Ini juga lebih sulit daripada temuan tegas untuk ahli radiologi. “Tetapi kami telah melihat bahwa kinerja evaluasi mesin turun secara signifikan lebih banyak daripada ahli radiologi jika ada temuan yang tidak meyakinkan. Ini harus dilihat secara kritis,” kata Kleesiek.

Praktek Klinis

Schmid sekarang ingin memeriksa apakah ChatGPT dapat digunakan untuk pengenalan entitas bernama dalam laporan medis. Pengenalan entitas bernama adalah aspek linguistik komputer. Tujuannya adalah agar entitas bernama dikenali dan dialokasikan secara otomatis ke kategori yang telah ditentukan sebelumnya.

Informasi dalam laporan medis tidak begitu mudah diakses karena tidak terstruktur dalam bentuk digital. “Ini mungkin tidak tampak seperti masalah yang sulit bagi kami. Dari laporan medis, kami dapat memastikan diagnosisnya, apakah pasiennya laki-laki atau perempuan, kondisi apa yang sudah ada sebelumnya, apakah spesialis terlibat dalam perawatan, dan masih banyak lagi. ” Perbedaan penting adalah bahwa orang memproses secara semantik, sedangkan ChatGPT dan model serupa didasarkan pada pengenalan pola dan pemrosesan pola, kata Schmid.

Kleesiek menjamin bahwa “masih banyak lagi yang akan datang” dalam pengembangan ChatGPT dan model linguistik lainnya. Dia mencatat bahwa ChatGPT, sebagaimana fungsinya saat ini, belum siap untuk digunakan dalam praktik klinis.

Schmid menganggap integrasi sosioteknik menjadi penting. “Saya percaya bahwa ChatGPT mewakili bidang peluang untuk kedokteran.” Namun, alat tersebut tidak boleh dilihat sebagai sesuatu yang menawarkan nasihat kepada remaja yang mabuk cinta. “Jika [someone] adalah untuk masuk, ‘Saya merasa sangat tidak enak, saya ingin bunuh diri,’ dan kemudian GPT-3 berkata, ‘Saya menyesal mendengarnya. Saya dapat membantu Anda dengan itu,'” memperingatkan Schmid.

Pengenalan pola, yang menjadi dasar ChatGPT dan model linguistik lainnya, bertanggung jawab atas kalimat bencana, “Saya dapat membantu Anda dengan itu,” yang diberikan sebagai tanggapan atas ekspresi ide bunuh diri. Chatbots sebagian besar digunakan di internet untuk pertanyaan layanan pelanggan. Ungkapan, “Saya ingin”, paling sering diikuti dengan “Saya dapat membantu”, jadi “Saya dapat membantu Anda (dengan itu)” adalah respons logis berikutnya.

Artikel ini diterjemahkan dari Medscape edisi Jerman.