Penjualan ”Facial Recognition” Dihentikan karena Memunculkan Bias
Sejumlah perusahaan menghentikan penjualan teknologi pengenalan wajah karena penggunaannya memunculkan bias. Pengaturan penggunaan teknologi ini agar tak disalahgunakan dan tidak menghasilkan bias sangat diperlukan.
Oleh
Andreas Maryoto
·5 menit baca
Sejak pekan lalu hingga pekan ini, perbincangan mengenai sejumlah masalah yang muncul terkait dengan teknologi pengenalan wajah (facial recognition) bermunculan di media. Sejumlah perusahaan membatalkan kerja sama dengan aparat kepolisian di beberapa tempat karena teknologi ini memunculkan bias dalam penggunaannya. Penangkapan tersangka yang cenderung tak berdasar sering dilakukan, sementara mereka tak melakukan kejahatan.
Potensi kesalahan diduga makin besar karena unjuk rasa belakangan banyak dilakukan oleh warga kulit hitam dan kulit berwarna lainnya sehubungan dengan aksi Black Lives Matter di banyak tempat. Apalagi, saat ini penggunaan teknologi tersebut belum diregulasi.
Amazon menunda kerja sama dengan kepolisian selama setahun karena ditemukan kontroversi dalam penggunaan produk itu. IBM juga menyatakan menunda penggunaan teknologi ini dengan alasan kemungkinan ada implikasi hak asasi manusia. Microsoft juga tak menjual lagi teknologi ini ke departemen kepolisian karena khawatir bias dan digunakan secara salah.
Di Indonesia, penggunaan teknologi pengenalan wajah kemungkinan sudah mulai dilakukan. Beberapa ajang besar dan unjuk rasa pada tahun lalu telah dipantau dengan teknologi ini meski diperkirakan belum memberikan hasil yang akurat.
Para pelaku unjuk rasa dengan kekerasan bisa diidentifikasi melalui foto atau video dan kemudian dicocokkan dengan data di sistem kependudukan sehingga bisa diketahui identitasnya. Akan tetapi, karena data tentang foto-foto para pelaku itu di aparat keamanan belum banyak, kemungkinan hasilnya belum akurat sehingga tak mudah untuk menentukan tersangka secara akurat.
Kemungkinan bias muncul dari data yang disimpan di dalam teknologi itu. Akurasi teknologi pengenalan wajah akan makin besar jika aparat sering mengambil foto atau video kerumuman orang di berbagai fasilitas publik. Intinya, teknologi akan makin pintar ketika ia menyimpan data seseorang dengan lebih banyak.
Pada masa awal Facebook menggunakan teknologi ini untuk menautkan pengguna dengan sebuah unggahan foto dari sebuah akun juga kerap kali salah, tetapi karena mesin itu ”belajar terus-menerus”, maka ia makin mengenali wajah-wajah orang yang dibagikan di Facebook sehingga kesalahan makin kecil.
Suatu ketika Kompas pernah mengikuti kursus tentang sains data. Dari kursus ini bisa diketahui bagaimana sebuah foto atau video disimpan dan kemudian digunakan untuk pengenalan berbagai gambar yang akan diidentifikasi. Pada pelatihan itu ada dua data, yaitu foto anjing dan foto kucing. Setelah kedua citra itu disimpan, kemudian dilakukan uji coba memasukkan sebuah foto baru anjing atau kucing untuk ditebak foto yang dimasukkan. Beberapa uji coba tepat memberikan informasi bahwa foto yang dimasukkan teridentifikasi kucing. Namun, tidak sedikit mesin salah memberikan informasi ketika dimasukkan foto kucing, hasilnya menginformasikan foto tersebut anjing.
Kita bisa membayangkan jika data yang tersimpan di aparat kepolisian lebih banyak orang dari suku tertentu, ras tertentu, dan warna kulit tertentu, maka mesin akan mengenali orang-orang yang tertangkap di dalam foto atau video mendekati data yang ada. Bias pun pasti tak terhindarkan.
Beberapa tahun lalu, masalah ini muncul di Amerika Serikat dalam pertandingan olahraga di salah satu stadion. Saat pertama kali teknologi ini digunakan, sejumlah orang ditangkap dengan dugaan akan melakukan kejahatan. Mereka yang ditangkap sebagian besar berkulit hitam, tetapi aparat banyak dikritik karena mereka yang ditangkap tak terbukti akan melakukan kejahatan.
Dalam bahasa teknis, algoritma belajar mengidentifikasi dari gambar-gambar manusia yang ada. Apabila algoritma diajari gambar yang itu-itu saja, sistem akan lebih banyak mengenal gambar-gambar yang tersedia. Oleh karena itu, dibutuhkan banyak ”pelatihan” bagi sistem agar mesin bisa mengenali lebih banyak gambar. Di sisi lain mereka yang mengoperasikan teknologi ini harus menyadari masalah yang muncul sehingga mereka harus membuat proporsi data yang mewakili agar tidak terjadi bias dalam penggunaannya.
Perusahaan teknologi pun sebenarnya sudah menyadari kelemahan ini, seperti terdapat di dalam salah satu tulisan di laman CBS News. Produk Amazon pernah mengidentifikasi Oprah Winfrey sebagai laki-laki. Mereka juga pernah salah mengidentifikasi 28 anggota kongres ke dalam data kepolisian.
Teknologi dari perusahaan lain juga pernah salah mengidentifikasi pelaku pengeboman di Sri Lanka. Korban salah identifikasi itu adalah mahasiswa Universitas Brown yang sama sekali tidak terkait dengan aksi terorisme. Ia bahkan sempat diancam akan dibunuh. Sejumlah riset juga menyebutkan kegagalan teknologi ini untuk mengidentifikasi obyek.
Kritik terhadap teknologi pengenalan wajah yang memunculkan bias sebenarnya sudah lama disuarakan. Pada 2003, sebuah riset yang dilakukan oleh National Institute of Standard and Technology mendapati bahwa subyek perempuan lebih sulit dikenali algoritma dibandingkan dengan subyek laki-laki, sementara anak-anak muda lebih sulit dikenali dibandingkan dengan orang tua. Studi lain, beberapa tahun kemudian, juga menginformasikan beberapa kesalahan identifikasi, termasuk bias demografi.
Pada tahun lalu, persoalan hasil yang bias juga kembali dikemukakan karena ditemukan kesalahan dalam identifikasi umur, ras, dan etnisitas. Kritik juga sudah dikemukakan karena bias itu akan berujung jauh, semisal pengecekan dan pelacakan seseorang yang terlalu jauh, tetapi ternyata kemudian terjadi kesalahan identifikasi pelaku. Kritik ini tak banyak mendapat perhatian sehingga masalah ini berlalu begitu saja.
Setelah sejumlah perusahaan menghentikan penjualan teknologi pengenalan wajah, maka mungkin lebih penting lagi adalah pengaturan penggunaan teknologi ini agar tak disalahgunakan dan juga agar tidak menghasilkan bias. Di hampir semua negara, penggunaan teknologi ini masih bebas alias tidak diatur.
Pengguna teknologi ini juga perlu diatur agar sejak penyimpanan data, mereka tidak membuat bias. Sejauh mana data yang disimpan bisa mewakili keberadaan etnis dan warna kulit yang ada. Salah satu langkah radikal yang dilakukan oleh San Francisco adalah menghentikan penggunaan teknologi itu oleh aparat keamanan dan otoritas transportasi sampai disepakati pengaturan penggunaannya.