Merintis Perlindungan Masyarakat di Tengah Akselerasi Penggunaan AI
Sudah 60 negara mengeluarkan kebijakan terkait kecerdasan artifisial dengan varian beragam. Indonesia sudah memiliki Strategi Nasional Kecerdasan Artifisial 2020-2045 yang perlu diturunkan menjadi aturan pelaksana.
Oleh
SUSANA RITA KUMALASANTI, DIAN DEWI PURNAMASARI
·5 menit baca
Perkembangan teknologi kecerdasan artifisial (artificial intelligence/AI) merebak dalam beberapa tahun terakhir. ChatGPT yang diluncurkan OpenAI telah mengagetkan sejumlah kalangan. Perkembangannya diprediksi masih akan terus bergerak pesat.
Penggunaan AI sebenarnya sudah dilakukan dalam kehidupan keseharian warga, misalnya penggunaan teknologi pengenalan wajah. Di Indonesia, kasus kesalahan pengenalan wajah terjadi pada Abdul Manaf yang ditetapkan sebagai tersangka pengeroyokan aktivis politik Ade Armando pada unjuk rasa 11 April 2022. Padahal, pada saat kejadian, yang bersangkutan tidak ada di tempat kejadian. Pada akhirnya, pemanfaatan teknologi itu perlu dibarengi verifikasi.
Kepala Departemen Hukum, Teknologi Informasi, Komunikasi, dan Kekayaan Intelektual Universitas Padjadjaran, Bandung, Sinta Dewi Rosadi, yang dihubungi, Rabu (1/3/2023), memperkirakan, pada 2030, lebih dari 70 persen perusahaan menggunakan AI. Bukan hanya swasta, kecerdasan artifisial juga dimanfaatkan pemerintah dalam membuat keputusan, misalnya terkait perubahan iklim, pencarian pekerjaan, dan penyusunan kontrak.
”Ke depannya, teknologi AI ini memang sebagian besar bisa menggantikan manusia,” ujar Sinta.
Dalam kondisi tersebut, perlindungan terhadap subyek data dari praktik-praktik pemrofilan untuk pembuatan keputusan secara otomatis oleh AI menjadi salah satu isu. Muncul berbagai pertanyaan, seperti apakah subyek data perlu mengetahui datanya digunakan untuk pengambilan keputusan, lalu apakah bisa menolak keputusan itu. Khususnya untuk keputusan yang sensitif dan berdampak langsung.
”Ada kekhawatiran nanti sistem itu akan bekerja diskriminatif dan tidak transparan penggunaannya atau prediksinya salah,” katanya.
Sebuah kasus penggunaan teknologi AI di bidang finansial, misalnya, telah menghadirkan keputusan diskriminatif. Sebuah perusahaan keuangan di Amerika Serikat, misalnya, menggunakan AI untuk memutuskan limit kredit nasabah. Hasilnya, limit kredit untuk perempuan lebih rendah dibandingkan lelaki.
Kasus lain yang mengemuka ada pada sektor penegakan hukum, di mana muncul diskriminasi yang berkaitan dengan warna kulit dan tingkat kriminalitas. Potensi diskriminasi serupa juga rentan terjadi di negeri ini. Penyebabnya, AI, yang merupakan superalgoritma dengan data sangat besar, tetap tak bisa selalu mengakomodasi setiap karakteristik dari data yang berbeda. Superalgoritma tersebut ternyata malah menegasikan atau menihilkan orang-perseorangan tertentu.
”Karena sifatnya afiliasi dari berbagai macam data, kemudian memunculkan satu karakter tertentu yang belum tentu karakter tersebut sesuai dengan orang yang diambil keputusannya. Ini yang kemudian menimbulkan diskriminasi,” ujar Wahyudi Djafar, Direktur Eksekutif Elsam.
Dalam sektor-sektor tertentu, seperti kesehatan dan penegakan hukum, di mana keputusan-keputusan yang dihasilkan AI memiliki dampak langsung dan sensitif terhadap subyek data, regulasi dengan memberikan berbagai lapis perlindungan jadi penting.
Saat ini sudah ada 60 negara yang mengeluarkan kebijakan terkait kecerdasan artifisial dengan varian beragam. Kebijakan diterbitkan dalam berbagai rupa, baik strategi nasional maupun undang-undang. Beberapa negara, seperti Inggris, AS, dan Kanada, juga sudah membentuk AI security council. Beberapa negara bahkan sudah memiliki satu mekanisme yang harus dilalui jika ingin menerapkan kecerdasan artifisial, yaitu analisis risiko algoritma.
Presiden AS Joe Biden sudah mengajukan AI bill of rights yang isinya antara lain memastikan hak-hak warga negara dan dukungan dalam pengembangan dan inovasi kecerdasan artifisial. Sementara parlemen Uni Eropa saat ini tengah membahas pembentukan UU AI yang menitikberatkan pada pendekatan berbasis risiko dengan memberi tekanan pada kerangka kerja pemerintah, penegakan hukum, dan sanksi terhadap pelanggarnya.
Strategi nasional
Di Indonesia, Badan Pengkajian dan Penerapan Teknologi, yang saat ini sudah dilebur ke dalam Badan Riset dan Inovasi Nasional, sudah meluncurkan Strategi Nasional Kecerdasan Artifisial 2020-2045 pada 2020. Salah satu slogan yang dicanangkan adalah kecerdasan artifisial untuk kesuksesan Visi Indonesia 2045. Disebutkan, ada lima prioritas pengembangan kecerdasan artifisial di Indonesia, yaitu di sektor kesehatan, reformasi birokrasi, pendidikan dan riset, ketahanan pangan, serta mobilitas dan kota pintar.
Dalam strategi nasional tersebut, regulasi terkait kecerdasan artifisial akan dibagi dalam beberapa hal. Pertama, regulasi spesifik tentang kecerdasan artifisial, seperti pembuatan keputusan otomatis dan pengenalan muka. Kedua, regulasi spesifik terhadap penerapan teknologi di bidang usaha, seperti finansial, kesehatan, dan manajemen sumber daya manusia. Ketiga, pertanggungjawaban untuk akibat yang tidak sengaja terhadap penggunaan kecerdasan artifisial, baik pidana maupun perdata. Terakhir, kode etik yang dibuat sukarela, misalnya oleh perhimpunan pelaku usaha kecerdasan artifisial atau kelompok-kelompok tertentu.
Setelah Strategi Nasional AI sudah ada, Sinta mengingatkan agar rencana nasional tersebut segera diturunkan jadi aturan pelaksana yang aplikatif. Setidaknya, ada aturan sektoral di sejumlah kementerian dan lembaga yang bisa diterapkan untuk etika pemakaian AI.
”Yang penting membuat aturan keamanan seperti apa? Perlindungan datanya bagaimana? Jika ada pihak yang dirugikan, bagaimana mekanisme pertanggungjawabannya? Jika kemudian dibutuhkan sanksi, UU wajib dibuat pemerintah dan DPR,” katanya.
Isu pemberian lapisan perlindungan terkait data pribadi menjadi hal yang substansial dalam pengembangan AI. RI memang sudah memiliki UU Perlindungan Data Pribadi (PDP). Namun, menurut Wahyudi, Indonesia belum terlalu mahir dalam perlindungan data pribadi. Padahal, data pribadi nantinya dikumpulkan dan diproses untuk pengembangan teknologi AI.
Selain itu, infrastruktur lain yang juga perlu dipersiapkan adalah regulasi tentang keamanan siber. Regulasi ini dibutuhkan untuk memastikan bagaimana keamanan data besar tersebut akan diproses atau dimanfaatkan untuk mengembangkan teknologi kecerdasan artifisial.
”Jadi, sebelum sampai pada pengembangan regulasi khusus terkait AI adalah bagaimana menyiapkan perangkat-perangkat regulasi atau legislasi pilar-pilar teknologi AI. Soal data privacy, keamanan siber, lalu terkait dengan perbaikan legislasi digitalidentity, identitas digital. Hal itu pada dasarnya juga merupakan pilar penting di dalam konteks pengembangan teknologi AI,” kata Wahyudi.
UU Administrasi Kependudukan yang ada saat ini belum mampu merespons perkembangan teknologi digital terkini. Kementerian Dalam Negeri tengah melakukan digitalisasi identitas, sebuah pengembangan baru dari KTP elektronik dalam bentuk aplikasi. Hal ini membutuhkan revisi UU Administrasi Kependudukan, khususnya terkait bagaimana memberikan perlindungan identitas digital.
Berkaca dari pengalaman sebelumnya, khususnya pembentukan UU PDP yang membutuhkan waktu sepuluh tahun sampai akhirnya lolos menjadi UU, ia khawatir dibutuhkan waktu yang lebih kurang sama untuk mengembangkan regulasi-regulasi secara baik. Hal ini juga termasuk arah pengembangan kecerdasan artifisial tersebut ke seluruh sektor, termasuk dalam kesehatan dan penegakan hukum yang memiliki implikasi serius atau sensitif bagi warga negara.