Apple Akan Menyaring Konten Pornografi Anak dari Gawai
Pornografi adalah persoalan serius dan global. Apple Inc akan memindai foto dan video yang disimpan di dalam iCloud, iPhone, dan iPad guna menyaring konten yang berpotensi mengandung materi pornografi anak.
Oleh
Laraswati Ariadne Anwar
·4 menit baca
SAN FRANCISCO, SABTU — Apple Inc tetap akan memindai foto dan video yang disimpan di dalam iCloud, iPhone, dan iPad guna menyaring konten yang berpotensi mengandung materi pornografi anak. Meskipun begitu, Apple melakukan kompromi dengan hanya menyaring konten yang ditandai mencurigakan oleh otoritas antipornografi anak di setiap negara.
Perubahan kebijakan ini diumumkan Jumat (13/8/2021) siang di Amerika Serikat. Sebelumnya, selama sepekan, keputusan Apple menyaring konten pornografi anak menimbulkan polemik di masyarakat AS. Ada yang mendukung, tetapi banyak pula yang menilai itu melanggar privasi.
Petisi meminta Apple mencabut kebijakan itu telah ditandatangani oleh 7.700 orang, termasuk oleh Edward Snowden yang sekarang tinggal di Rusia. Snowden merupakan buron Pemerintah AS setelah membocorkan bahwa pemerintah negara tersebut diam-diam menyadap gawai elektronik, media sosial, dan surat elektronik warganya. Ia menyebut tindakan itu melanggar privasi warga.
Pornografi anak merupakan masalah global yang serius. Di AS, otoritas yang menangani persoalan ini adalah Pusat Anak Hilang dan Tereksploitasi Nasional (NCMEC). Lembaga ini memiliki basis data konten pornografi anak yang sangat besar. Perusahaan-perusahaan digital, seperti Facebook, Microsoft, dan Google, bekerja sama dengan NCMEC dalam melaporkan foto ataupun video yang mengandung unsur pornografi anak.
Namun, ketiga perusahaan itu hanya melaporkan konten yang telah diunggah ke laman mereka. Facebook, misalnya, memanfaatkan saluran pengaduan dari pengguna apabila mereka menemukan foto atau video berisi pornografi anak di salah satu akun. Tim Facebook akan meninjau konten yang diadukan tersebut dan mencocokkannya dengan basis data NCMEC, apabila memang benar berisi pornografi anak baru akan diteruskan ke aparat penegak hukum.
Pendekatan yang diambil Apple berbeda. Dalam wawancara eksklusif dengan Wall Street Journal, Kepala Pengembang Peranti Lunak Apple Craig Federighi menjelaskan bahwa sistem Apple akan memindai foto dan video yang berada di dalam iPhone, iPad, dan iCloud walaupun pemilik gawai belum mengunggahnya ke media sosial.
”Setiap foto dan video terdiri dari rentetan kode biner. Sistem kami meneliti kode biner tersebut. Menurut panduan NCMEC setidaknya ada 30 unsur di dalam kode dan konten untuk mengategorikan foto atau video itu termasuk pornografi anak atau bukan. Jadi, Apple tidak melihat foto atau video konsumen satu per satu,” papar Federighi.
Menurut dia, Apple telah mengembangkan dan menyempurnakan sistem ini selama bertahun-tahun. Angka kegagalannya hanya satu di antara satu triliun. Oleh sebab itu, sistem ini bisa membedakan foto yang berisi pornografi anak dengan foto anak sedang bermain-main di kolam renang atau bak mandi.
Sistem akan memindai kode biner sebanyak dua kali. Apabila kedua pindaian mengindikasikan foto itu berunsur pornografi anak, Apple akan melaporkan ke otoritas terkait. Pendekatan ini yang kemudian diubah oleh Apple menjadi harus melalui otoritas berwenang di suatu negara. Alasannya, setiap negara memiliki standar berbeda-beda terhadap materi pornografi anak.
Kebijakan kedua yang diambil Apple ialah menyaring foto dan video yang dikirim oleh atau kepada anak-anak berusia di bawah 18 tahun yang memakai gawai. Tujuannya demi melindungi anak dari predator seksual serta mengajar anak-anak mengenai jenis foto dan video yang berbahaya untuk disebarluaskan.
”Gawai yang dipakai oleh anak-anak berusia 12 tahun ke atas umumnya terhubung dengan gawai orangtua. Sistem secara otomatis mengaburkan semua gambar atau video dengan unsur bugil yang diterima anak di gawai mereka. Anak maupun orangtua juga akan menerima pemberitahuan bahwa ada gambar berisiko masuk ke gawai anak,” ujarnya.
Jika anak mengklik gambar, akan muncul peringatan bahwa orangtua mereka akan mengetahui dan melihat gambar tersebut. Langkah ini dinilai Apple efektif memberi anak waktu untuk berpikir ulang atas tindakan mereka sekaligus membuat orangtua tetap waspada.
Para pendukung kebijakan Apple justru mempertanyakan kenapa butuh waktu begitu lama bagi perusahaan itu untuk terlibat memberantas pornografi anak. Dalam rubrik opini di majalah Newsweek, pakar forensik digital Universitas California Berkeley, Hany Farid, berpendapat bahwa yang dilakukan Apple ini justru melindungi privasi para korban. ”Kita selalu melihat dari kepentingan privasi pribadi, tetapi kerap melupakan korban pronografi, apalagi dalam hal ini anak-anak,” tulisnya.
Hany berargumen bahwa sejatinya berbagai penyedia layanan media sosial seperti surat elektronik, bahkan juga Whatsapp dan Facebook sekalipun, secara rutin memindai akun milik pengguna. Ini demi keamanan agar pengguna tidak terjerumus ke dalam tautan spam atau konten yang mengandung virus. Penyaringan pornografi anak ini memiliki konsep mirip dengan itu. Hanya saja tujuannya untuk kepentingan yang lebih serius dibandingkan sekadar spam biasa. (Reuters/DNE)