Dilema Perang dan Kemanusiaan pada Kecerdasan Buatan
Kekhawatiran hilangnya kendali manusia dalam pengambilan keputusan perang kian kuat seiring pengembangan sistem persenjataan otonom. Kekhawatiran itu bisa dihindari dengan akurasi data sebagai basis kecerdasan buatan.

Seorang komandan angkatan bersenjata menggeser tampilan layar televisi berukuran tak kurang dari 46 inci yang dibaringkan di atas meja kerjanya. Dengan dua jari telunjuk, ia memperbesar gambaran aerial di beberapa lokasi, lalu berulang kali mengklik pilihan informasi yang muncul pada setiap tempat. Data dan informasi yang mencuat beberapa detik setelah ia mengetukkan jarinya itu pun dibaca dengan saksama. Sebab, sejumlah lokasi tersebut merupakan bagian dari medan perang, tempat ia akan mengirimkan sejumlah pasukan.
Meski sudah memiliki rencana besar sebelumnya, data dan informasi dari layar tersebut menjadi pertimbangan tambahan bagi sang komandan. Apalagi, informasi yang diberikan tak sekadar profil tempat, tetapi juga menyajikan sejumlah skenario serangan yang memungkinkan dilakukan terhadap lawan. Begitu juga mekanisme pertahanan yang diperlukan, sesuai dengan analisis pola serangan yang umumnya pernah digencarkan lawan di lokasi tertentu.
Belum sempat komandan mengambil keputusan, riuh tepuk tangan sudah bergema ruang tempat ia berada. Sebab, itu hanyalah simulasi penggunaan kecerdasan buatan yang diberi nama ”Predictive Warfafe”, buatan Maarten Schadd, peneliti kecerdasan buatan dari TNO, lembaga penelitian independen Belanda yang memiliki divisi khusus untuk bekerja sama dengan Kementerian Pertahanan Belanda. Demonstrasi inovasi berlangsung di kantor pusat TNO, Den Haag, Senin (14/2/2023) sore waktu setempat.
Maarten Schadd menjelaskan, pihaknya mengembangkan prototipe kecerdasan buatan yang bisa membantu komandan angkatan bersenjata mengambil keputusan tepat dalam peperangan. Prototipe itu menyediakan berbagai informasi dan skenario operasi dalam bentuk gambar tiga dimensi. Informasi yang ditampilkan berasal dari analisis citra satelit dan berbagai sumber data lain. ”Ini akan sangat membantu para komandan dalam situasi kritis. Misalnya, ketika lawan mendekat, dia bisa memutuskan rencana terbaik apa yang bisa dijalankan,” ujarnya.
Menurut Schadd, bantuan prediksi peperangan dengan teknologi kecerdasan buatan dibutuhkan karena tentara umumnya berada dalam situasi yang sangat terbuka terhadap berbagai kemungkinan. Kedua pihak yang terlibat perang akan berusaha agar lawannya tidak memiliki data dan informasi apa pun. Dalam situasi demikian, apa pun bisa terjadi, termasuk hal-hal yang tidak diharapkan.
Meski demikian, kecerdasan buatan bukanlah entitas yang bisa membuat keputusan secara mandiri lalu mempertanggungjawabkannya. Padahal, setiap keputusan militer dalam perang harus bisa dipertanggungjawabkan, karena menyangkut hak hidup manusia. ”Karena itu, desain teknologi harus benar-benar bisa memastikan bahwa keputusan militer tidak dibuat oleh sistem kecerdasan buatan yang otonom, tetapi oleh manusia. Dengan cara tersebut, ada mekanisme kontrol untuk meminimalkan kekeliruan dalam pengambilan keputusan,” kata Schadd.
Ditemui terpisah, Stefan Buijsman, Asisten Profesor di Delft University of Technology, sepakat bahwa penggunaan kecerdasan buatan pada ranah militer tidak bisa dilepaskan dari kendali manusia yang bermakna (meaningful human control). Kendali bermakna itu terepresentasi dari proses pengambilan keputusan yang mempertimbangkan alasan moral kemanusiaan. Alasan moral dimaksud juga harus relevan dengan situasi yang dihadapi.
”Langkah atau keputusan yang diambil (saat menggunakan kecerdasan buatan) semestinya bisa ditelusuri sampai ke pehamaman moral yang tepat dari pihak yang mendesain atau menggunakan teknologi tersebut,” ujar Buijsman.
Baca juga: ”Drone” Iran Digunakan Serang Kyiv, Teheran Terseret Konflik di Ukraina

Peran pesawat terbang nirawak (drone) Bayraktar TB 2 dalam perang Rusia-Ukraina terbukti sangat strategis dan andal.
Perdebatan
Kekhawatiran hilangnya kendali manusia dalam pengambilan keputusan perang semakin kuat seiring dengan pengembangan sistem persenjataan otonom (autonomous weapons systems/AWS). Sebab, sistem tersebut bisa bekerja menyerang target tanpa kendali manusia. Potensi salah serang dan jatuhnya korban yang tidak terkait dengan peperangan tidak bisa terhindarkan. Pertanggungjawaban atas dampak tewasnya manusia pun menjadi tak bisa dilacak.
Kendali bermakna juga menjadi salah satu isu besar yang diperbincangkan dalam konrefensi internasional Responsible Artificial Intelligence in The Military Domain (REAIM) di Den Haag, pertengahan Februari lalu. Konferensi internasional pertama yang membahas tentang pengembangan kecerdasan buatan yang bertanggung jawab pada ranah militer itu diselenggarakan Pemerintah Belanda bekerja sama dengan Republik Korea. Konferensi diikuti oleh 80 delegasi pemerintah dari sekitar 100 negara, tidak terkecuali Indonesia. Tidak hanya itu, sekitar 2.500 peserta baik dari kalangan akademisi, perusahaan, maupun masyarakat sipil juga turut berpartisipasi dalam mendiskusikan isu tersebut.
Sejumlah peneliti dan pengembang dari pihak swasta menyebutkan, kekhawatiran itu bisa dihindari dengan meningkatkan kuantitas dan akurasi data yang menjadi basis kerja kecerdasan buatan. Bahkan, Ron Tolido, Executive Vice President CPT Capgemini Insights and Data Global Business Line, mengatakan, data yang dimasukkan pada teknologi kecerdasan buatan tidak terbatas pada informasi, tetapi juga kecenderungan dan nilai yang dipahami oleh manusia. ”Kini, sebenarnya kita bisa melihat kecerdasan buatan seperti berkaca melihat diri sendiri,” ujarnya.
Sekretaris Jenderal Amnesty International Agnes Callamard mengingatkan, argumentasi bahwa kecerdasan buatan adalah senjata andal karena menggunakan basis data yang akurat dan lengkap seolah mengatakan bahwa dengan dengan itu, korban perang bisa diminimalkan. Padahal, sejarah mencatat, perang tak pernah ”bersih” karena penuh dengan bias. Pengembangan kecerdasan buatan pun bisa membuat bias itu tertanam dalam senjata secara lebih spesifik.
Argumentasi bahwa kecerdasan buatan adalah senjata andal karena menggunakan basis data yang akurat dan lengkap seolah mengatakan bahwa dengan dengan itu, korban perang bisa diminimalkan.
Misalnya, pengembang memasukkan perintah ke AWS untuk menargetkan orang kulit hitam, pengungsi, orang berambut merah. ”Kita tidak bisa membuat perang menjadi ’bersih’ karena perang itu kotor dan kita membuat senjata yang lebih mematikan dengan bias yang semakin presisi. Saya tidak ingin kita berpikir bahwa ini adalah permainan. Perang bukan permainan,” ujar Callamard.
Menurut dia, aturan internasional yang ketat dibutuhkan untuk mencegah potensi penggunaan senjata berbasis kecerdasan buatan menjadi senjata pemusnah massal. Aturan itu juga mendesak untuk memastikan penggunaan kecerdasan buatan sebagai senjata tetap mengacu pada hukum internasional dan hukum hak asasi manusia (HAM) internasional.
Pengembangan
Meski belum ada aturan, norma, dan standar etik yang berlaku secara internasional, pengembangan kecerdasan buatan dalam ranah militer terus dilakukan. Bersamaan dengan itu dilema antara pengembangan teknologi dan dampak etiknya pun terus menjadi pembicaraan dan kajian. Merujuk studi Lembaga Ketahanan Nasional (Lemhannas), pengembangan saat ini dan ke depan setidaknya terjadi di Amerika Serikat dan China.
Amerika Serikat, misalnya, memiliki rudal antikapal jarak jauh, pesawat nirawak, kecerdasan buatan untuk perencanaan dan logistik, serta sistem peperangan algoritmik. Sementara itu, China memiliki sistem robotik otonom, sistem pengambilan keputusan militer otonom, juga sistem kecerdasan buatan untuk perang siber.
Baca juga: Memahami ”Perang Semikonduktor” antara AS dan China

Dosen ITS, Wisnu Wardhana, dan pekerja mengecek pengerjaan Kapal Perang The Croc di Laboratorium Kelautan Institut Teknologi Sepuluh Nopember di Surabaya, Rabu (26/2/2020). Kapal yang dibuat untuk pengintaian tersebut mempunyai panjang 12 meter dengan lebar 3 meter dan dilengkapi dua mesin bertenaga 350 tenaga kuda. Kapal mampu berkecepatan 35-45 knot saat di atas air, sementara saat menyelam dengan batas kedalaman 10 meter bisa mencapai kecepatan 15 knot.
Di Indonesia, mengacu Strategi Nasional (Stranas) Kecerdasan Artifisial Indonesia 2020-2045 yang diterbitkan Badan Pengkajian dan Penerapan Teknologi (BPPT), yang kini sudah dilebur ke Badan Riset dan Inovasi Nasional (BRIN), riset dan inovasi di bidang pertahanan dan keamanan berada di bawah kewenangan Komite Kebijakan Industri Pertahanan (KKIP). Namun, merujuk ke Buku Putih Pertahanan Indonesia dan Kebijakan Umum Pertahanan Negara 2015-2019, pembangunan industri pertahanan belum diarahkan ke teknologi kecerdasan buatan, baik dari segi penelitian dan pengembangan, pengaplikasian, maupun pengimplementasian pada alat dan peralatan pertahanan dan keamanan (alpalhankam). Di lingkungan TNI dan Polri, kebijakan terkait penguasaan teknologi kecerdasan buatan juga belum ada.
Stranas juga menyebutkan, memperhatikan arahan Presiden pada 7 Juli 2020, TNI dan Polri diminta segera menguasai teknologi kecerdasan buatan, big data, dan otomasi. Karena itu, kebijakan industri pertahanan wajib diarahkan pada penelitian dan pengembangan, pengaplikasian, dan pengimplementasiannya pada alpalhankam.
Riset dan inovasi difokuskan pada aspek analisis intelijen, pengambilan keputusan, wahana-wahana mandiri cerdas baik yang bergerak sendiri maupun berkelompok, persenjataan maju, dukungan logistik, pemeliharaan prediktif, pengadaan, dan komunikasi aman. Itu semua dilakukan dalam kerangka Cognitive Command, Control, Communications, Computers, Intelligence, Surveillance, and Reconnaissance (Cognitive C4ISR) untuk mendukung operasionalisasi Network-Centric Warfare (NCW) pada tataran strategis, operasional, dan taktis.
Gubernur Lemhannas Andi Widjajanto mengatakan, perkembangan teknologi jelas tak bisa dielakkan. Militer Indonesia pun semestinya sudah memiliki kecerdasan buatan dalam level tertentu agar tidak tertinggal dari negara lain. Namun, tidak bisa dimungkiri arah pengembangan dan penggunaan kecerdasan buatan pada militer akan sangat bergantung pada negara pemilik teknologi tersebut. Amerika Serikat dan China, misalnya.
Negara-negara di luar itu, kata Andi, perlu mendorong agar mereka bisa menjadi aktor global yang bertanggung jawab mengembangkan teknologi secara rasional dan membuat protokol yang menjamin tidak adanya dehumanisasi perang. Sebab, tidak bisa dimungkiri, pengembangan kecerdasan buatan dapat mengeliminasi unsur kemanusiaan dalam perang. Akibatnya, pengambilan keputusan dalam berperang bisa dipercepat.
Karena itu, Indonesia pun berkomitmen untuk terus berpartisipasi dalam diskusi mengenai kerangka etik penggunaan kecerdasan buatan. Juga mendorong penguatan penggunaan kecerdasan buatan yang bertanggung jawab dalam ranah militer.
Teknologi, sejak pertama kali ditemukan, memang tak pernah bebas nilai. Ia selalu berdimensi politis karena bertujuan untuk membantu kehidupan manusia. Ketika digunakan dalam perang, dimensi politisnya jelas semakin kuat. Lantas, bisakah manusia lepas dari itu?