Gunakan AI untuk Tandai Target Serangan, Israel Dikecam Keras
Israel disebut mulai menggunakan sistem AI untuk menandai target setelah perang 11 hari di Gaza pada Mei 2021.
NEW YORK, SABTU - Kecaman mengalir terhadap Israel atas dugaan penggunaan kecerdasan buatan (AI) dalam perang di Gaza. Sekretaris Jenderal Perserikatan Bangsa-Bangsa Antonio Guterres sangat prihatin atas laporan bahwa Israel menggunakan kecerdasan buatan untuk menandai target serangan di Gaza.
Akibatnya, korban tewas begitu banyak. Israel membantah tudingan itu dan menyatakan akan memperketat pengawasan penggunaan kecerdasan buatan oleh militer.
Baca juga: Netanyahu Akui Israel Bunuh Pekerja Kemanusiaan di Gaza, Kecaman Dunia Mengalir
Menurut laporan +972, majalah independen Israel-Palestina, Israel menggunakan AI untuk mengidentifikasi target di Gaza. Guterres mengatakan amat terganggu oleh laporan itu karena penggunaan AI untuk mengidentifikasi target, terutama di area permukiman padat, berakibat banyaknya korban sipil yang tewas.
”Tidak ada keputusan hidup dan mati yang diwakilkan pada kalkulasi algoritma yang tak punya perasaan,” kata Guterres, Jumat (5/4/2024).
Laporan +972 diterbitkan pada Rabu (3/4/2024), mengutip enam pejabat intelijen Israel. Disebutkan, sistem yang dinamai Lavender itu memainkan peran penting dalam pengeboman terhadap Palestina yang tidak pernah terjadi, terutama pada awal perang Israel-Hamas.
”Militer Israel menandai puluhan ribu warga Gaza sebagai pelaku pembunuhan, menggunakan sebuah sistem penargetan AI dengan sedikit pengawasan manusia dan kebijakan permisif atas korban,” demikian klaim laporan itu.
Tidak ada keputusan hidup dan mati yang diwakilkan pada kalkulasi algoritma yang tak punya perasaan.
Dalam beberapa hal, pengawasan manusia terhadap sistem AI itu hanya selama 20 detik sebelum memberikan izin pengeboman. Akibatnya, jumlah korban tewas di Gaza begitu banyak. Kementerian Kesehatan di Gaza menyebut 33.091 orang tewas dalam perang yang telah berlangsung selama enam bulan itu.
Berdasarkan sumber-sumber intelijen tersebut, Lavender sangat berpengaruh dalam operasi militer Israel di Gaza. Militer memperlakukan hasil mesin AI itu seolah-olah itu keputusan manusia.
Dua sumber menyebutkan, militer Israel pada pekan pertama perang Israel-Hamas memutuskan ”untuk setiap anggota yunior Hamas yang ditandai oleh Lavender, mereka diizinkan membunuh 15-20 warga sipil”. Jika targetnya pejabat senior Hamas, militer Israel dalam beberapa kesempatan mengizinkan pembunuhan hingga lebih dari 100 warga sipil.
Alessandro Accorsi, analis senior pada Crisis Group, mengatakan, laporan +972 itu sangat memprihatinkan. ”Rasanya seperti kiamat. Jelas, tingkat kendali manusia sangat rendah. Ada ribuan pertanyaan terkait hal ini, bagaimana sisi moralnya, tetapi sungguh mengejutkan (AI) digunakan,” ujarnya.
Johann Soufi, pengacara hak asasi manusia dan mantan direktur kantor hukum UNRWA di Gaza, mengatakan, laporan +972 menggambarkan metode yang bisa disebut kejahatan perang. Ia juga menyebutnya sebagai kejahatan terhadap kemanusiaan terkait tingginya korban sipil.
Baca juga: Misi Terselubung di Balik Skenario Israel Evakuasi Warga Gaza dari Rafah
Perang AI pertama
Israel disebut mulai menggunakan sistem AI untuk menandai target setelah perang 11 hari di Gaza pada Mei 2021. Para komandan militer menyebutnya sebagai ”perang AI pertama” di dunia. Panglima militer Israel saat perang 2021, Aviv Kochavi, menuturkan kepada laman Ynet tahun lalu bahwa militer menggunakan sistem AI untuk mengidentifikasi ”100 target baru setiap hari”, bukannya 50 target seperti tahun sebelumnya.
Beberapa pekan sebelum perang terkini di Gaza, sebuah unggahan blog di laman militer Israel mengungkap, sistem AI ”pengarahan target” yang dimutakhirkan telah menandai lebih dari 12.000 sasaran hanya dalam 27 hari.
Seorang pejabat Israel yang tidak disebutkan namanya mengatakan, sistem AI yang dinamai Gospel itu menghasilkan target ”serangan presisi terhadap infrastruktur yang terkait Hamas, mengakibatkan kerusakan besar terhadap musuh dan kerugian minimal pada pihak yang tidak terkait”. Seorang mantan pejabat intelijen Israel yang dikutip +972 pada November 2023 menggambarkan kinerja Gospel sebagai pabrik pembunuhan massal.
Baca juga: Merajut Etika dalam Pusaran AI
Militer Israel atau IDF, Jumat, membantah laporan +972. ”IDF tidak menggunakan sistem kecerdasan buatan yang mengidentifikasi kelompok teroris atau memperkirakan apakah seseorang teroris atau bukan,” sebut pernyataan militer Israel.
Alih-alih menggunakan AI, IDF memiliki basis data yang tujuannya saling memberikan referensi dalam sumber intelijen. Basis data itulah yang digunakan sebagai alat untuk menganalisis serangan. ”IDF tidak melancarkan serangan apabila perkiraan korban tambahan dari serangan itu sangat besar,” sebut IDF.
Kekeliruan
Meski demikian, dalam pengakuan kesalahan yang jarang terjadi, Israel mengakui adanya serangkaian kekeliruan dan pelanggaran aturan dalam serangan yang menewaskan tujuh pekerja kemanusiaan di Gaza. Mereka salah meyakini target tersebut adalah anggota kelompok Hamas dan telah memecat tiga pejabat terkait serangan drone itu.
Terkait serangan terhadap para pekerja kemanusiaan itu, Duta Besar Palestina untuk PBB Riyad Mansour menyebut Israel sengaja menarget mereka. ”Tewasnya para pekerja kemanusiaan dari World Central Kitchen bukan insiden yang berdiri sendiri. Israel sangat paham siapa yang ditarget, menghantam tiga mobil di tiga lokasi, meskipun mereka sangat mudah dikenali dan telah berkoordinasi dengan Isrel,” tuturnya, dikutip CNN.
Insiden itu juga meresahkan Pakta Pertahanan Atlantik Utara (NATO). Menteri Luar Negeri Norwegia Espen Barth Eide kepada CNN menyatakan, anggota NATO merasa ”frustrasi” bahwa Israel bertindak terlalu jauh di Gaza setelah serangan terhadap staf World Central Kitchen.
Sementara Amerika Serikat masih mendalami laporan media yang menyebut Israel menggunakan AI untuk menandai target serangan di Gaza. Juru Bicara Keamanan Nasional Gedung Putih John Kirby mengatakan, AS belum memverifikasi laporan +972. (AP/AFP/REUTERS)