Indonesia Tekankan Risiko Dehumanisasi Perang akibat Kecerdasan Buatan
Setidaknya ada dua pilihan ekstrem untuk menghadapi risiko dehumanisasi perang karena kecerdasan buatan, yakni melarang total atau menjadikannya sebagai ”senjata sempurna”, seperti nuklir.
Oleh
KURNIA YUNITA RAHAYU dari DEN HAAG, BELANDA
·3 menit baca
KURNIA YUNITA RAHAYU
Suasana pameran kecerdasan buatan dalam konferensi internasional Responsible Artificial Intelligence in The Military Domain (REAIM) 2023 di World Forum, Den Haag, Balanda, Rabu-Kamis (15-16/2/2023).
DEN HAAG, KOMPAS — Delegasi Indonesia dalam konferensi internasional penggunaan kecerdasan buatan pada militer ”REAIM 2023” di Den Haag, Belanda, mengingatkan negara-negara di dunia bahwa implementasi teknologi tersebut dapat mengeliminasi unsur-unsur kemanusiaan dalam perang. Padahal, pertimbangan manusia diperlukan agar pengambilan keputusan perang tetap rasional.
Indonesia menjadi salah satu dari 70 negara yang berpartisipasi dalam konferensi internasional ”Responsible Artificial Intelligence in The Military Domain (REAIM) 2023” di World Forum, Den Haag. Dalam konferensi multidisiplin itu, delegasi Indonesia tak hanya berasal dari pemerintah, tetapi juga kelompok masyarakat sipil. Selain menjadi pembicara dalam sesi diskusi, Indonesia juga diminta untuk menyampaikan pandangan tentang implementasi kecerdasan buatan pada militer dalam penutupan konferensi, Kamis (16/2/2023) sore waktu setempat.
Gubernur Lembaga Ketahanan Nasional (Lemhannas) Andi Widjajanto ditemui di sela-sela konferensi, Rabu (15/2/2023), mengatakan, penggunaan sistem persenjataan otonom (autonomous weapons systems/AWS) merupakan kekhawatiran utama dalam implementasi kecerdasan buatan pada militer. Sebab, AWS bekerja menyerang target tanpa kendali manusia. Berbeda dengan manusia, kecerdasan buatan tidak memiliki sejumlah emosi yang bisa menjadi pertimbangan rasional dalam menentukan tindakannya.
”Dalam perang, harus ada rasa takut akan mati, kalah, dan hancur supaya perang tetap rasional. Jika rasa takut itu dihilangkan dengan mengganti tentara ke mesin, itu akan mempermudah pengambilan keputusan untuk berperang,” kata Andi.
Gubernur Lemhannas Andi Widjajanto menjadi salah satu delegasi Indonesia untuk mengikuti konferensi internasional Responsible Artificial Intelligence in The Military Domain (REAIM) 2023 di World Forum, Den Haag, Rabu-Kamis (15-16/2/2023).
Di tengah konsekuensi penghilangan unsur kemanusiaan itu, kata Andi, ada dua pilihan ekstrem yang bisa disepakati negara-negara di dunia. Pertama, melarang total kecerdasan buatan pada militer. Namun, opsi ini hampir tidak mungkin dilakukan karena perkembangan teknologi merupakan keniscayaan. Sejarah juga membuktikan, dunia tidak bisa melarang total senjata nuklir, biologis, dan kimiawi meski sudah ada perjanjian bersama.
Jika kecerdasan buatan berhasil menjadi perfect weapon, itu akan menjadi perfect deterrence. Namun, kita belum tahu akan k emana arah penggunaan kecerdasan buatan ini. (Andi Widjajanto)
Opsi lain, memosisikan kecerdasan buatan sebagai senjata sempurna atau perfect weapon. Senjata sempurna jika digunakan akan menghancurkan segalanya. Oleh karena itu, negara yang memilikinya hanya akan menggelar senjata itu untuk kepentingan mencegah perang atau memberikan efek deterrence lantaran tak ada senjata lain yang bisa mengalahkannya.
Langkah tersebut saat ini diterapkan untuk senjata nuklir. Sejak peristiwa Hiroshima dan Nagasaki, Jepang, 1945, hingga saat ini belum ada lagi nuklir yang ditembakkan. ”Jika kecerdasan buatan berhasil menjadi perfect weapon, itu akan menjadi perfect deterrence. Namun, kita belum tahu akan ke mana arah penggunaan kecerdasan buatan ini,” ujar Andi.
Menurut Andi, arah penggunaan kecerdasan buatan pada militer akan sangat bergantung pada negara pemilik teknologi tersebut. Saat ini, setidaknya Amerika Serikat dan China yang telah memiliki dan mengembangkannya. Negara-negara di luar itu bisa mendorong agar mereka menjadi aktor global yang bertanggung jawab mengembangkan teknologi secara rasional dan membuat protokol yang menjamin tidak adanya dehumanisasi perang.
KURNIA YUNITA RAHAYU
Suasana pameran kecerdasan buatan dalam konferensi internasional Responsible Artificial Intelligence in The Military Domain (REAIM) 2023 di World Forum, Den Haag, Rabu-Kamis (15-16/2/2023).
”Karena semua keputusan di level apa pun yang akhirnya menghilangkan hak hidup harus melibatkan manusia. Nama hukum yang terkait saja International Humanitarian Law sehingga jangan sampai kata humanitarian itu hilang,” ujar Andi.
Pendiri Foreign Policy Community of Indonesia (FPCI) yang juga menjadi delegasi Indonesia di REAIM 2023, Dino Patti Djalal, menambahkan, kecerdasan buatan tak bisa dicegah. Bahkan, militer Indonesia juga harus mulai menggunakannya pada berbagai level agar tak tertinggal dari negara lain. Tak berhenti di situ, negara juga perlu mendorong adanya aturan internasional terkait.
”Indonesia juga harus mendorong agar konferensi ini bisa menghasilkan kesepakatan yang mengakomodasi gagasan kita, terutama soal standar etik,” katanya.
Menurut Dino, keberadaan standar etik penting dan mendesak untuk menuntut tanggung jawab praktik penggunaan kecerdasan buatan pada militer yang melanggar prinsip-prinsip hak asasi manusia. Selama ini, indikasi pelanggaran itu sudah tampak. Namun, belum ada mekanisme pertanggungjawaban yang tegas sehingga negara terkait masih bisa melenggang begitu saja.
KURNIA YUNITA RAHAYU
Pendiri Foreign Policy Community of Indonesia (FPCI), Dino Patti Djalal, menjadi salah satu delegasi Indonesia untuk mengikuti konferensi internasional Responsible Artificial Intelligence in The Military Domain (REAIM) 2023 di World Forum, Den Haag, Rabu-Kamis (15-16/2/2023).
Bukan permainan
Sekretaris Jenderal Amnesty International Agnes Callamard menuturkan, argumentasi bahwa kecerdasan buatan adalah teknologi yang andal lantaran menggunakan basis data yang bisa dipercaya seolah-olah ingin mengatakan bahwa korban perang bisa diminimalkan. Padahal, sejarah memperlihatkan bahwa perang tak pernah ”bersih” karena penuh dengan bias.
Pengembangan kecerdasan buatan juga dapat menyertakan bias itu secara lebih spesifik, misalnya memerintahkan AWS untuk menargetkan orang kulit hitam, pengungsi, orang berambut merah. ”Kita tidak bisa membuat perang menjadi ’bersih’ karena perang itu kotor dan kita membuat senjata yang lebih mematikan dengan bias yang semakin presisi. Saya tidak ingin kita berpikir bahwa ini adalah permainan. Perang bukan permainan,” ujar Callamard.
Oleh karena itu, ia mengusulkan pelarangan penuh terhadap penggunaan AWS. Aturan internasional yang ketat juga dibutuhkan untuk memastikan penggunaan senjata berbasis kecerdasan buatan yang berpotensi menjadi senjata pemusnah massal tetap mengacu pada hukum internasional dan hukum hak asasi manusia internasional.
Kepala Pertahanan Angkatan Bersenjata Belanda Jenderal Onno Eichelsheim menambahkan, implementasi kecerdasan buatan pada militer memang tak bisa dilakukan begitu saja. Keandalan, basis data yang akurat, dan tidak adanya bias adalah hal terpenting untuk dipastikan sebelum memanfaatkan teknologi tersebut. Sebab, dengan begitu pihaknya bisa menentukan tindakan tepat dengan pertimbangan informasi awal yang paling tepercaya.
KURNIA YUNITA RAHAYU
Peneliti dari Leiden University, Willemijn Aerdts; Kepala Pertahanan Angkatan Bersenjata Belanda Jenderal Onno Eichelsheim; Sekretaris Jenderal Amnesty International Agnes Callamard; dan Chief Technology Officer Lockheed Martin,Steven Walker (dari kiri) dalam diskusi keandalan kecerdasan buatan pada militer. Diskusi tersebut merupakan bagian dari pembukaan konferensi internasional Responsible Artificial Intelligence in The Military Domain (REAIM) 2023 di World Forum, Den Haag, Belanda, Rabu (15/2/2023).
Eichelsheim setuju dengan ide dasar bahwa manusia harus memegang kendali penuh atas penggunaan kecerdasan buatan. Namun, manusia juga bisa mendelegasikan tugas pada algoritma untuk mengambil keputusan, misalnya dalam mekanisme bertahan terhadap serangan lawan yang sangat ofensif. Harus ada solusi untuk memastikan pihaknya terlindungi dan tidak kalah cepat dari serangan lawan yang juga memanfaatkan kecerdasan buatan.
”Kita memang memiliki dilema etik sebelum memutuskan untuk menyebar kekuatan dengan kecerdasan buatan. Kita tidak bisa sekadar memasukkannya ke dalam algoritma. Masih banyak dilema dan keterbatasan yang harus dibicarakan,” kata Eichelsheim.