ChatGPT Belum Mampu Membuat Makalah Ilmiah yang Meyakinkan
”Chatbot” kecerdasan buatan (AI) ChatGPT mungkin bisa meniru pekerjaan manusia dalam berbagai hal, tetapi tidak dalam penelitian ilmiah. Program komputer dapat menemukan studi palsu yang dihasilkan ”chatbot” ini.
Oleh
TATANG MULYANA SINAGA
·3 menit baca
JAKARTA, KOMPAS — Sejak diluncurkan pada November 2022, chatbot kecerdasan buatan (artificial intelligence/AI) ChatGPT semakin populer digunakan untuk menulis laporan, mengirim surat elektronik, mengisi dokumen, dan menerjemahkan bahasa. Namun, studi terbaru oleh peneliti di University of Kansas, Amerika Serikat, mengidentifikasi ChatGPT belum mampu menghasilkan makalah ilmiah yang meyakinkan dan kompleks seperti buatan manusia.
Dalam studi yang diterbitkan di jurnal Cell Reports Physical Science pada 7 Juni 2023, para peneliti membuat program pembelajaran komputer untuk menemukan perbedaan antara makalah ilmiah asli dan contoh palsu yang dihasilkan ChatGPT. Peneliti melatih program itu guna mengidentifikasi perbedaan utama antara 64 studi asli di jurnal dengan 128 makalah buatan ChatGPT yang menggunakan 64 makalah asli itu sebagai petunjuk.
Program komputer mampu membedakan 60 tulisan asli dari jurnal dan 120 tulisan palsu yang dihasilkan ChatGPT. Program ini juga menandai makalah yang ditulis AI lebih dari 99 persen. Selain itu, dapat membedakan antara paragraf hasil tulisan manusia dengan hasil ChatGPT.
Perbedaan itu setidaknya teridentifikasi dari empat aspek, yaitu kerumitan paragraf, panjang dan keragaman tingkat kalimat, tanda baca, serta kata-kata populer. Paragraf yang ditulis manusia cenderung lebih panjang dan kompleks.
Sementara makalah buatan AI memakai tanda baca yang tidak ada di makalah asli, seperti tanda seru. Peneliti juga menemukan sejumlah kesalahan faktual yang mencolok.
”Salah satu masalah terbesar adalah (ChatGPT) mengumpulkan teks dari banyak sumber dan tidak ada pemeriksaan akurasi apa pun. Akibatnya, membaca tulisan yang dihasilkan ChatGPT bisa seperti memainkan permainan dua kebenaran dan kebohongan,” ujar penulis utama studi tersebut, Heather Desaire, ahli kimia analitik di University of Kansas, dilansir dari Livescience.com, Minggu (11/6/2023).
Membaca tulisan yang dihasilkan ChatGPT bisa seperti memainkan permainan dua kebenaran dan kebohongan.
Program komputer ini diperlukan untuk membedakan makalah yang dihasilkan manusia dan AI. Sebab, manusia mungkin tidak begitu baik dalam menemukan perbedaannya secara manual. Namun, tetap dibutuhkan studi berskala lebih luas untuk membuat model yang lebih andal sehingga dapat menjaga integritas metode ilmiah dalam penulisan.
Di satu sisi, minat orang menggunakan kecerdasan buatan sangat tinggi. ChatGPT, produk teknologi berbasis AI generatif buatan OpenAI, misalnya, diperkirakan memiliki lebih dari 100 juta pengguna secara global.
Akan tetapi, di sisi lain, banyak juga yang mengkritik pemakaian chatbot ini. Beberapa di antaranya terkait plagiasi, akurasi, dan memicu kekhawatiran penyebaran berita palsu.
Sementara itu, Organisasi Pendidikan, Ilmu Pengetahuan, dan Kebudayaan Perserikatan Bangsa-Bangsa (UNESCO) menerbitkan makalah terkait rekomendasi tentang etika AI. Makalah ini menyarankan kerangka kerja prosedural untuk mengatasi dan memitigasi risiko yang mungkin timbul dalam penggunaan AI.
”Penting bagi kami untuk bertindak cepat guna memastikan bahwa orang dan organisasi siap untuk merancang serta menggunakan teknologi ini dan mengevaluasi dampaknya. Untuk melakukannya, kami menyediakan analisis yang jelas dan saran kebijakan berdasarkan rekomendasi UNESCO,” ujar Asisten Direktur Jenderal untuk Ilmu Sosial dan Kemanusiaan UNESCO Gabriela Ramos dikutip dari laman resmi UNESCO.
Di tengah meningkatnya kecemasan atas laju inovasi AI yang melampaui regulasi, rekomendasi UNESCO diharapkan berguna menjadi pemandu dalam pemanfaatan kecerdasan buatan. Apalagi, AI berpotensi disalahgunakan, termasuk untuk aksi kejahatan.