Kekaguman pada kecanggihan kecerdasan buatan mesti dibarengi dengan kehati-hatian dengan menyadari ketidakakuratan teknologi itu. Kelemahannya perlu disadari agar pemanfaatannya tidak salah arah.
Oleh
TATANG MULYANA SINAGA
·3 menit baca
Kecanggihan kecerdasan buatan (artificial intelligence/AI) mencuri perhatian di era disrupsi digital. Banyak orang terpukau akan kemampuan AI menyajikan sesuatu sesuai permintaan penggunanya. Akan tetapi, teknologi ini masih memiliki ketidakakuratan yang perlu disadari agar pemanfaatannya tidak salah arah.
Salah satu produk AI yang sedang ramai diperbincangkan adalah ChatGPT, chatbot buatan OpenAI. Mesin ini mampu menjawab pertanyaan dengan cepat dan membuat konten narasi dari data yang diolah. Fenomena ini sedang ”ngetren” di dunia jurnalistik dan pendidikan.
Akan tetapi, kekaguman pada kecanggihan kecerdasan buatan mesti dibarengi kehati-hatian dengan menyadari ketidakakuratan teknologi itu. Secara sederhana, mesin ini bekerja dari data yang tersedia. Jika informasi yang diolah tidak akurat, atau bahkan hoaks, hasil yang ditampilkan sangat mungkin keliru.
”Mesin bekerja berdasarkan statistik. Kalau mayoritas bilang apa, akan disimpulkan seperti itu atau beberapa mencari sumber lain. Sistemnya menggunakan pembobotan,” ujar Ketua Indonesia Artificial Intelligence Society (IAIS) Lukas di Jakarta, Selasa (7/3/2023).
Lukas pernah menguji kemampuan ChatGPT dengan menanyakan resep cendol goreng. Hasilnya, chatbot tersebut tetap menampilkan jawaban meskipun resep tersebut tidak ada.
”Dia (ChatGPT) tetap mengonsepkan resep dengan kata goreng berarti harus ada minyaknya tanpa mengetahui apakah cendol itu benda padat atau cair. Ini hanya mesin yang bekerja berdasarkan dokumen dan mencoba merangkumnya. Jika tidak ditemukan, ya, dengan ekstrapolasi,” jelasnya.
Menurut Lukas, konten yang dihasilkan oleh ChatGPT dan beberapa chatbot lainnya masih bisa dikenali. Pada umumnya kalimatnya deklaratif dan berupa laporan. Belum sampai menganalisis persoalan. Namun, teknologinya diyakini terus berkembang sehingga kemampuannya semakin kompleks.
Memanipulasi
Di sisi lain, AI juga rentan digunakan untuk kejahatan, salah satunya memanipulasi. Deepfake (pemanfaatan AI untuk memalsukan gambar atau audio), misalnya, sangat rentan memicu banjir disinformasi.
ChatGPT tidak lebih dari asisten dalam mengumpulkan data. Mengenai data yang dicari dan bagaimana menggunakannya, hal itu kembali pada jurnalis.
”Kalau itu digunakan untuk menyerang dengan konten disinformasi atau hoaks, bisa mengacaukan juga,” ucapnya.
Sejumlah perusahaan media di dunia mulai menguji coba pemakaian AI. CNET, perusahaan pers asal Amerika Serikat, pada November 2022 melakukan uji coba dengan merilis artikel finansial yang dituliskan AI.
Setelah dua bulan, perusahaan itu menghentikan campur tangan AI dalam pembuatan artikel. Sebab, redaksi CNET merasa masih banyak kekurangan dari penggunaan AI sehingga membutuhkan koreksi substansial.
Pengajar jurnalistik di Universitas Multimedia Nusantara, Ignatius Haryanto, mengatakan, ChatGPT sangat bergantung pada informasi yang diperoleh. Jadi, potensi ketidakakuratannya sangat besar.
”Jangan terlalu terpukau dengan teknologi semacam ini. Namun, kita mencoba mempelajari lebih jauh berikut dengan kelemahan-kelemahannya. Dari situ kemudian bisa realistis apakah aplikasi ini bisa dipakai untuk mempermudah kerja jurnalis atau tidak,” jelasnya.
Meruntuhkan kredibilitas
Menurut Haryanto, ChatGPT tidak lebih dari asisten dalam mengumpulkan data. Mengenai data yang dicari dan bagaimana menggunakannya, hal itu kembali pada jurnalis.
Oleh sebab itu, penggunaan kecerdasan buatan mesti disertai kehati-hatian. ”Kalau tidak akurat, ini akan meruntuhkan kredibilitas jurnalis. Yang sejauh ini bisa kita lihat hasilnya adalah jawaban-jawaban cepat. Tidak semua hal bisa dijawab oleh AI,” katanya.
Haryanto menganggap ChatGPT seperti Wikipedia, ensiklopedia daring yang bebas dan terbuka. Namun, teknologi AI memakai bentuk dialog dan dapat memberikan jawaban dengan cepat.
Dengan begitu, aplikasi tersebut dipakai untuk menyajikan informasi awal atau mengetahui gambaran besar suatu persoalan. Sementara hal-hal detailnya harus dicari dengan bertanya pada orang yang lebih ahli dan mengakses sumber-sumber lain.
Hal yang juga harus diantisipasi adalah plagiasi dan hak cipta. Menurut Haryanto, semakin susah membuat batas-batas hak cipta karena aplikasi AI menyatukan banyak sumber. ”Ada problem terkait hak cipta. Misalnya, kalimat yang ini atau paragraf yang itu datang dari mana. Hal ini perlu dilihat lebih jauh,” ucapnya.
Meski masih memiliki beberapa kelemahan, kecerdasan buatan tidak serta-merta harus ditolak. Berbagai pihak, termasuk perusahaan media massa, bisa memanfaatkan kekayaan koleksi informasi sebagai asupan AI untuk menjawab berbagai pertanyaan. Namun, apakah media mampu menghadirkan teknologinya sebagai bekal mengarungi era kecerdasan buatan?