Facebook Papers: Kelemahan Moderasi Facebook Picu Kekerasan Komunal di India
Kemampuan Facebook memoderasi konten ujaran kebencian, penyebaran informasi salah, dan sejenisnya di India dapat sorotan tajam seiring naiknya kasus kekerasan komunal. Partai penguasa diduga memanfaatkan kelemahan itu.
Oleh
MAHDI MUHAMMAD
·5 menit baca
NEW DELHI, SENIN — Upaya platform media sosial Facebook untuk menangani ujaran kebencian, penyebaran informasi yang salah (misinformation), dan berbagai unggahan menghasut, khususnya konten anti-Muslim di India, menjadi sorotan. Kelemahan platform Facebook dalam memoderasi atau mencegah ujaran kebencian, penyebaran informasi yang salah, dan unggahan menghasut diduga dimanfaatkan oleh partai yang saat ini berkuasa, Bharatiya Janata Party (BJP), untuk keuntungan partainya selama pemilihan umum.
Berdasarkan bocoran penelitian internal Facebook, yang diperoleh The Associated Press, platform yang berdiri sejak 2004 itu mengklaim telah cukup selektif dalam mengekang ujaran kebencian, penyebaran informasi yang salah, dan berbagai unggahan menghasut yang berujung pada ketegangan komunal dan agama.
Namun, dalam dokumen yang dihasilkan dari penelitian internal perusahaan sejak Juli 2020 hingga setidaknya bulan Maret 2021, para karyawan sendiri meragukan motivasi dan kepentingan Facebook dalam memoderasi konten-kontennya. Dokumen itu juga menyebut kemungkinan ada kesalahan penanganan yang justru semakin memperburuk hubungan antarumat beragama di India, terutama antara warga mayoritas Hindu dan warga minoritas Muslim.
Bocoran dokumen tersebut memperlihatkan bahwa manajemen Facebook telah menyadari ada masalah itu selama bertahun-tahun. Dalam dokumen itu disebutkan bahwa ujaran kebencian dan penyebaran informasi yang salah dalam beberapa kasus diamplifikasi secara masif oleh fitur ”direkomendasikan” dan algoritma milik Facebook.
Itu sebabnya, banyak kritikus dan pakar digital mengatakan bahwa manajemen Facebook telah gagal, terutama ketika kasus kekerasan komunal itu melibatkan anggota Partai BJP yang dipimpin oleh Perdana Menteri Narendra Modi.
Di seluruh dunia, Facebook telah menjadi semakin penting dalam politik, dan India tidak berbeda. Tahun lalu, media The Wall Street Journal mengeluarkan laporan yang membeberkan keterlibatan Modi dan kroninya untuk memanfaatkan Facebook dalam pemilu, terutama membangkitkan sentimen nasionalisme agama dan nasionalisme etnis.
Laporan tersebut juga meragukan kemampuan Facebook untuk menegakkan kebijakannya tentang ujaran kebencian, terutama setelah hubungan PM Modi dan CEO Facebook Mark Zuckerberg digambarkan sangat dekat pascakunjungan Modi ke kantor pusat Facebook tahun 2015.
Profesor Tanvir Aeijaz, pakar ilmu politik di Universitas Delhi, yang dikutip dari laman BBC, mengatakan bahwa kekerasan komunal bukanlah fenomena yang muncul belakangan. ”Kondisi itu tumbuh selaras dengan strategi mereka yang berkuasa dan mobilisasi politik. Ketidakpercayaan itu selalu ada, tetapi perpecahan kini dipertajam oleh nasionalisme agama dan nasionalisme etnis,” kata Aeijaz.
Seorang politisi senior BJP, Prakash Javadekar, menilai media bersikap bias dengan memberi porsi lebih terhadap pemberitaan Muslim yang menjadi korban kekerasan komunal. Dia mengklaim, umat Hindu adalah warga yang lebih banyak menjadi korban dibandingkan dengan warga Muslim.
”Jika melihat data resmi, ada 160 umat Hindu di antara 200 orang yang digantung. Orang-orang dari semua agama menjadi sasaran," kata Javadekar. Namun, dia tidak memberikan rincian sumber data tersebut. Bahkan, Pemerintah India tidak pernah mengumpulkan data seperti itu.
Pada 2019, sebuah situs pemeriksa fakta yang menghitung ”kejahatan kebencian” di India melaporkan bahwa lebih dari 90 persen korban dalam 10 tahun terakhir adalah warga minoritas Muslim.
Kelemahan moderasi konten
Dalam dokumen tersebut, Facebook melihat India sebagai salah satu negara yang paling berisiko di dunia. Mereka juga mengidentifikasi bahasa Hindi dan Bengali sebagai dua bahasa yang diprioritaskan untuk dikenali secara lebih dalam dan ditandai apabila terkait dengan ujaran kebencian (Facebook flagged words).
Yang menjadi kendala adalah Facebook tidak memiliki cukup moderator bahasa lokal atau penanda konten untuk menghentikan penyebaran informasi yang salah, yang tidak jarang menyebabkan kekerasan di dunia nyata.
Dalam sebuah pernyataan kepada AP, Facebook menyatakan telah berinvestasi secara signifikan dalam teknologi untuk menemukan ujaran kebencian dalam berbagai bahasa, termasuk Hindi dan Bengali. Langkah itu dipandang secara signifikan telah mengurangi jumlah ujaran kebencian hingga separuh tahun 2021.
”Ujaran kebencian terhadap kelompok-kelompok yang terpinggirkan, termasuk Muslim, sedang meningkat secara global. Jadi, kami meningkatkan penegakan dan berkomitmen untuk memperbarui kebijakan kami saat ujaran kebencian berkembang secara daring,” kata juru bicara Facebook.
Harian The New York Times, dalam laporan yang terbit pada 23 Oktober 2021 menulis, dari 22 bahasa resmi yang diakui oleh Pemerintah India, Facebook baru menggunakan teknologi kecerdasan buatan (artificial intelligence atau AI) untuk mengenali lima bahasa. Facebook mengklaim menggunakan tim bahasa untuk mengawasi penggunaan bahasa pada konten-kontennya. Namun, dalam laporan The New York Times yang mengutip bocoran dokumen penelitian, banyak konten yang menargetkan warga minoritas Muslim tidak pernah ditandai atau ditindaklanjuti.
Rekomendasi Facebook
Sebuah penelitian kecil dilakukan seorang karyawan Facebook menjelang pemilihan umum ketika penyebaran informasi yang salah semakin tinggi. Dia ingin memahami apa yang dilihat oleh pengguna baru di India pada umpan berita (newsfeed) yang dipilih berdasarkan rekomendasi oleh platform itu sendiri. Selama tiga pekan, beberapa peristiwa luar biasa mengguncang India, seperti serangan militan di Kashmir yang menewaskan lebih dari 40 tentara India dan membuat kemungkinan terjadi perang dengan Pakistan sangat terbuka.
Dalam catatan hasil penelitian itu juga disebutkan bahwa peneliti dan tim terkejut dengan konten yang membanjiri pengumpan berita pengguna. Konten yang disodorkan melalui kanal itu adalah rentetan konten nasionalis yang bias, informasi yang salah, dan penggunaan kekerasan yang berujung pada pertumpahan darah. Unggahan yang tampaknya santun dan tidak berbahaya, yang direkomendasikan oleh algoritma Facebook, dengan cepat berubah menjadi sesuatu yang berbeda, yakni berisi ujaran kebencian, desas-desus yang tidak terverifikasi, dan konten viral yang merajalela.
Singkat kata, para pengguna media sosial Facebook justru mendapat rekomendasi mengakses berita-berita palsu, retorika anti-Pakistan, dan konten Islamofobia. Sebagian besar isi konten-konten tersebut penuh dengan kekerasan yang brutal.
Fitur ”Populer di Seluruh Facebook” juga menunjukkan banyak konten yang belum diverifikasi terkait dengan serangan balasan India ke Pakistan setelah pengeboman. Dalam konten itu, misalnya ada gambar bom napalm dari klip video game yang dibantah oleh salah satu mitra pemeriksa fakta Facebook.
”Mengikuti newsfeed pengguna uji ini, saya telah melihat lebih banyak gambar orang meninggal dalam tiga minggu terakhir daripada yang saya lihat sepanjang hidup saya,” tulis peneliti. Peneliti mempertanyakan tanggung jawab platform untuk mencegah terjadi kerusakan.
”Haruskah kita, sebagai perusahaan, memiliki tanggung jawab ekstra untuk mencegah kerusakan yang diakibatkan oleh konten yang direkomendasikan?” kata peneliti dalam kesimpulan mereka.
Memo manajemen yang beredar bersama hasil penelitian tidak menjawab pertanyaan itu, tetapi mengekspos bagaimana algoritma platform berperan dalam menghasilkan konten yang tidak pantas. Karyawan tersebut mencatat bahwa ada ”titik buta” yang jelas, terutama dalam ”konten bahasa lokal".
Juru bicara Facebook mengatakan, studi uji ”mengilhami analisis yang lebih dalam dan lebih ketat” dari sistem rekomendasinya dan ”berkontribusi pada perubahan produk untuk meningkatkannya”.
”Secara terpisah, pekerjaan kami untuk mengekang ujaran kebencian terus berlanjut dan kami semakin memperkuat pengklasifikasian kebencian (di platform) kami untuk memasukkan empat bahasa India," kata juru bicara itu. (AP/AFP)