Mencari Keseimbangan Moderasi Konten dalam Melawan Misinformasi
Bagaimana menjaga ruang publik digital tetap menjadi area yang aman dan ramah bagi penggunanya di tengah banjir informasi yang belum pernah terjadi sebelumnya? Teknologi mungkin berperan, tetapi kuncinya tetap manusia.
Data digital tiap harinya tercipta kian banyak, besar, dan dalam tingkat yang semakin cepat. Berdasarkan penelitian firma perangkat lunak Amerika Serikat, Domo Inc, sebanyak 2,5 exabyte data tercipta setiap harinya pada 2020. Pada 2004, 1 exabyte baru bisa dihasilkan oleh jaringan internet sedunia selama satu bulan, menurut catatan PCWorld.
Satuan exabyte bukan main besarnya. File 1 exabyte setara dengan 1 miliar gigabyte (GB). Jika 1 GB dapat menampung video berdurasi 1 jam, maka video berkapasitas 1 exabyte akan berdurasi sekitar 114 ribu tahun.
Hal ini juga tercermin pada lalu lintas konten di platform media sosial. Misalnya, para pengguna Twitter menghasilkan, 473.400 cuitan setiap menitnya. Pengguna Instagram di sisi lain, mengunggah lebih dari 49 ribu video ke platform tersebut, menurut Domo Inc.
Di sinilah muncul persoalan, bagaimana menjaga ruang publik digital ini tetap menjadi area yang aman dan ramah bagi penggunanya di tengah banjir informasi yang belum pernah terjadi sebelumnya?
Kecerdasan artificial
AI, artificial intelligence atau kecerdasan artifisial mungkin menjadi salah satu senjata utama yang dimanfaatkan para perusahaan media sosial untuk menekan konten berbahaya di platform masing-masing.
Facebook, misalnya, pada Januari–Maret 2021, dapat menghapus lebih dari 98 persen konten pornografi, spam, kekerasan, dan konten berbahaya sudah secara otomatis.
Baca : Moderasi Konten Medsos untuk Cegah Eksploitasi Anak Korban Kekerasan
Tim riset AI Facebook bersama peneliti dari sejumlah universitas di AS dan Italia pada 2019 mengembangkan teknologi untuk mendeteksi video yang mengandung kekerasan termasuk pelecehan seksual anak. Teknologi bernama TMK+PDQF ini dapat mendeteksi kemiripan antara dua file video, sehingga distribusi suatu video tertentu dan berbagai versinya dapat terdeteksi dan ditekan.
Di aspek teks, teknologi AI yang digunakan Facebook juga dapat mendeteksi ujaran kebencian dalam 40 bahasa. Sistem AI Facebook juga dapat membaca teks yang tercetak di dalam sebuah foto atau video.
Karena konten dalam kategori berbahaya ini lebih mudah diklasifikasikan ketimbang misinformasi dan disinformasi yang sensitif dengan konteks, teknologi dapat berperan penting di aspek ini.
Di Twitter, teknologi AI dapat menyimpulkan pola cuitan dari berbagai akun sekaligus. Dari situ dapat dianalisis apakah sebuah Trending Topics adalah hasil pembicaraan alamiah atau hasil rencana yang terkoordinasi menggunakan akun robot.
Karena konten dalam kategori berbahaya ini lebih mudah diklasifikasikan ketimbang misinformasi dan disinformasi yang sensitif dengan konteks, teknologi dapat berperan penting di aspek ini
Sama seperti Facebook, AI juga digunakan Twitter untuk mendeteksi ujaran kebencian dan terorisme. Teknologi ini sudah beroperasi cukup lama; pada 2017, Twitter menyebut bahwa 300.000 akun terkait terorisme telah berhasil dihapus dari platform tersebut.
Manusia tak tergantikan
Namun algoritma saja tampaknya tidak bisa menyelesaikan persoalan. Pemahaman terhadap substansi dan konteks dinilai menjadi ganjalan bagi teknologi saat ini untuk dapat menyaring dan menyapu bersih misinformasi dari platform media sosial.
Co-founder dan fact check specialist dari Masyarakat Anti Fitnah Indonesia (Mafindo) Aribowo Sasmito mengatakan, bahwa teknologi canggih seperti AI juga dapat mendeteksi substansi dari sebuah hoaks.
Namun kegunaannya masih sangat sempit, mungkin hanya mempan untuk mendeteksi foto maupun video hasil suntingan. Meski hoaks semacam ini juga banyak beredar, jumlahnya tidak semasif kabar hoaks yang hanya memilintir konteks suatu pernyataan, misalnya.
“Masalahnya, hoaks dengan teknik foto dan video suntingan tidak sebanyak hoaks dengan hoaks dengan teknik pelintiran konteks, yang jenisnya seperti ini sampai saat ini belum bisa ditangani oleh mesin atau AI, masih wajib ditangani oleh manusia,” kata Aribowo, pekan lalu.
Platform media sosial raksasa seperti Facebook dan Twitter pun meyakini hal yang sama. Public Policy Director Twitter Indonesia & Malaysia Agung Yudhawiranata mengatakan, teknologi dan manusia saling melengkapi dalam upaya menjaga ruang publik digital menjadi lebih nyaman dan aman.
“Deteksi secara teknologi ini masih terbatas. Teknologi dan manusia ini complementary to each other. Teknologi bisa mendeteksi pola perilaku, sedangkan substansi yang mengandung konteks dan timing ini tetap butuh human review,” ujarnya.
Agung mengatakan, jika ada laporan dari pengguna terkait substansi sebuah cuitan, maka laporan tersebut akan dilihat oleh si peninjau konten atau moderator.
Baca juga: Melangkah di Tengah Labirin Informasi
Facebook misalnya, juga menggandeng organisasi pemeriksa fakta untuk mengidentifikasi konten yang mengandung misinformasi.
Total, Facebook menggelar kerja sama dengan 80 pemeriksa fakta independen yang akan menangani 60 bahasa secara global. Dalam setahun terakhir, Facebook dan WhatsApp mengucurkan dana 2 juta dollar AS (Rp 28,9 miliar) ke organisasi pemeriksa fakta di sejumlah negara.
Pemeriksa fakta ini menjadi garda terdepan dalam penanganan misinformasi. Mereka akan mengidentifikasi konten yang bermasalah dahulu, sebelum sistem secara otomatis memberikan label kepada konten-konten duplikat yang tersebar di Facebook.
“Pada April 2020 misalnya, kami memberikan label peringatan pada sekitar 50 juta konten terkait Covid-19 di Facebook, berdasarkan 7.500 artikel yang telah ditinjau oleh mitra pemeriksa fakta pihak ketiga,” kata Manager Kebijakan Publik Facebook di Indonesia Karissa Sjawaldy.
Ini juga belum mencakup tim internal Facebook yang bertugas mencegah peredaran konten berbahaya seperti konten kekerasan, pornografi dan eksploitasi seksual anak, ujaran kebencian, bunuh diri, dan terorisme.
Hal ini dilakukan dengan mempekerjakan 15.000 orang yang meninjau konten dalam 50 bahasa. Ribuan orang ini memoderasi konten dengan standar yang telah dirumuskan oleh tim kebijakan konten.
Perbanyak moderator?
Namun, seperti yang sedang berlangsung sekarang, perang melawan hoaks dan misinformasi masih belum terlihat ujungnya. Konten yang menyesatkan masih terus bermunculan dan beredar.
Catatan Mafindo hingga Kamis (24/6) misalnya, masih ada 18 konten bermasalah terkait Covid-19 yang beredar selama Juni 2021. Sejak 2020, total ada 2.021 konten salah, palsu, dan menyesatkan tentang Covid-19 yang diidentifikasi Mafindo. Artinya, setiap harinya ada 3–4 hoaks berbau pandemi baru yang muncul.
Angka ini pun belum menghitung konten pada isu lain seperti politik, misalnya, yang juga rawan dipelintir.
“Kecepatan dan jumlah hoaks sering jauh lebih cepat daripada kecepatan untuk memeriksa dan membuat artikel periksa fakta atau klarifikasinya. Dan, artikel periksa fakta yang sebarannya kalah jauh dibandingkan dengan hoaksnya,” kata Aribowo.
Kecepatan dan jumlah hoaks sering jauh lebih cepat daripada kecepatan untuk memeriksa dan membuat artikel periksa fakta atau klarifikasinya. Dan, artikel periksa fakta yang sebarannya kalah jauh dibandingkan dengan hoaksnya
Lalu, apa solusinya? Apakah platform perlu mempekerjakan lebih banyak moderator dan pemeriksa fakta untuk meneliti fakta dan kebenaran dari setiap konten yang muncul di platform masing-masing?
Di sinilah persoalan menjadi lebih rumit. Platform, baik Twitter maupun Facebook, sama-sama tidak ingin dicap sebagai sumber kebenaran maupun sekadar arbiter of truth (wasit kebenaran). Agung menyebut, Twitter ingin menghindari adanya pihak yang dapat ‘memonopoli kebenaran’.
“Ketika satu pihak menjadi penengah kebenaran, maka akan muncul ketidakseimbangan kekuatan dan potensi jangkauan yang berlebihan,” bunyi jawaban resmi Facebook.
Baca juga: Jamu Bahagia Bangsa Finlandia
Pengajar Harvard Law School Evelyn Douek meyakini, moderasi konten dalam jumlah besar tidak akan bisa sempurna. Jika peraturan diperketat dan platform lebih mudah menghapus konten yang berpotensi bermasalah, maka akan ada konten-konten yang sebetulnya baik-baik saja namun dihapus. Ujungnya, bisa dianggap pelanggaran hak berekspresi.
Douek menganggap, moderasi konten di platform media sosial memang tidak akan pernah berhenti dan solusi mujarab.
Selain itu, fakta bahwa perang melawan hoaks tidak pernah usai hingga hari ini juga menunjukkan bahwa penghapusan suatu konten dari suatu platform tidak menyelesaikan berbagai persoalan sosial dan politik yang menjadi akar permasalahannya.
“Tidak akan ada bentuk moderasi yang sempurna dengan peraturan yang statis dan bentuk hukum yang tetap. Hal ini akan terus menjadi persoalan kontestasi ide dan evolusi teknologi,” ujarnya dalam artikel di jurnal Columbia Law Review edisi April 2021.
Artinya, langkah terpenting untuk melindungi diri dari hoaks adalah peningkatan kapasitas diri. Bagaimanapun, konten moderasi yang sangat komprehensif tidak akan menutup fakta bahwa literasi masyarakat Indonesia berada di posisi 62 dari 70 negara. Jalan masih panjang.