Pedoman Etika Kecerdasan Buatan Ditargetkan Rilis Desember 2023
Perkembangan kecerdasan buatan dikhawatirkan akan mencapai tahap teknologi mampu memutuskan tanpa campur tangan manusia.
Oleh
MEDIANA
·3 menit baca
JAKARTA, KOMPAS — Kementerian Komunikasi dan Informatika akan mengeluarkan Surat Edaran atau SE Etika Kecerdasan buatan pada Desember 2023. Surat edaran ini diharapkan bisa menjadi pedoman etika bagi pelaku usaha dalam merumuskan kebijakan internal mengenai data, konsultasi, analisis, dan pemrograman berbasis kecerdasan buatan.
Beriringan dengan itu, Badan Riset dan Inovasi Nasional (BRIN) bersama Kolaborasi Riset dan Inovasi Kecerdasan Artifisial Indonesia (Korika) juga tengah menggodok rancangan peraturan presiden mengenai Strategi Nasional Kecerdasan Buatan. Ketentuan ini akan mencakup hal-hal yang lebih luas dari SE terkait etika itu, seperti infrastruktur, keamanan, dan penguatan bisnis.
Wakil Menteri Kominfo Nezar Patria mengatakan, perkembangan generasi terbaru kecerdasan buatan atau artificial intelligence (AI) dikhawatirkan akan mencapai tahap di mana teknologi mampu memutuskan sesuatu tanpa campur tangan manusia. Kekhawatiran ini terjadi secara global.
”Hampir semua negara galau. Ini bukan sesuatu yang masih jauh di depan,” ujar Nezar Patria saat membuka kelompok diskusi terarah (FGD) Kebijakan Teknologi AI, Senin (27/11/2023), di Jakarta. FGD dihadiri oleh 43 pemangku kepentingan di ekosistem industri teknologi AI, termasuk BRIN dan perusahaan teknologi lokal/multinasional.
Dalam draf SE disebutkan, ada enam etika yang menjadi landasan, yaitu inklusivitas, kemanusiaan, keamanan, demokrasi, transparansi, serta kredibilitas dan akuntabilitas. Draf itu juga menyebut adanya pelaksanaan dan tanggung jawab.
Contoh pelaksanaan adalah pemanfaatan kemampuan pemrograman berbasis AI sebagai pendukung aktivitas kerja. Sementara contoh tanggung jawab adalah memastikan AI tidak menggantikan eksistensi manusia serta mencegah rasisme dan segala bentuk tindakan yang merugikan manusia.
Posisi Indonesia dalam meregulasi AI mengikuti apa yang sekarang menjadi perhatian global. Di tataran internasional arus yang menguat adalah agar inovasi penggunaan kecerdasan buatan terpusat pada manusia dan bertanggung jawab.
Sepanjang acara Artificial Intelligence Safety Summit 1–2 November 2023 di Inggris, misalnya, muncul gagasan berupa gerakan untuk memberhentikan sementara (pause) penggunaan AI. Generasi masa depan AI juga dikhawatirkan menimbulkan bahaya besar, yakni hilangnya lapangan kerja, disinformasi, dan keamanan nasional.
Generasi masa depan AI juga dikhawatirkan menimbulkan bahaya besar, yakni hilangnya lapangan kerja, disinformasi, dan keamanan nasional.
Pertemuan diikuti oleh 28 negara, termasuk China dan Amerika Serikat. Mereka menandatangani Deklarasi Bletchley yang menyetujui kerja sama dalam mengevaluasi risiko AI. Isi deklarasi, di antaranya, menyebutkan, banyak risiko yang timbul dari AI yang pada dasarnya bersifat internasional sehingga paling baik diatasi melalui kerja sama internasional. Mereka juga bertekad untuk bekerja sama secara inklusif untuk memastikan AI berpusat pada manusia, dapat dipercaya, dan bertanggung jawab.
Nezar menyebutkan, Indonesia turut hadir dalam acara itu. Selain Indonesia, Singapura dan Filipina juga hadir mewakili Asia Tenggara. Banyak negara bergerak maju mengeluarkan peraturan terkait AI. Uni Eropa, misalnya, membuat AI Act untuk memproteksi masyarakat dari bahaya. Presiden Amerika Serikat dikabarkan meminta perusahaan untuk menilai risiko keamanan sosial sebelum merilis kecerdasan buatan ke publik. China menindak cara kecerdasan buatan digunakan, termasuk dengan menyensor chatbot.
Direktur Tata Kelola Aplikasi Informatika Kementerian Kominfo Aries Kusdaryono mengatakan, SE Etika Kecerdasan Buatan itu harus menjadi panduan bagi pelaku usaha saat berinovasi. SE dapat dilihat sebagai pemberi kepastian pelaksanaan dan tanggung jawab inovasi ataupun penggunaan AI. Aktivitas pemrograman berbasis kecerdasan buatan itu memiliki Kode Baku Lingkungan Usaha dengan nomor 62015.
Tata kelola
Konsultan hukum di bidang teknologi AI Matheace Ramaputra berpendapat, meregulasi teknologi AI perlu pendekatan kehati-hatian karena teknologi ini masih berkembang. Upaya Kementerian Kominfo mengeluarkan SE Etika Kecerdasan Buatan diduga karena ingin menumbuhkan inovasi dalam negeri supaya tetap bisa bertahan dan mendorong tata kelola.
Beberapa negara besar, seperti negara di kawasan Uni Eropa dan Amerika Serikat, adalah tempat para inovator dan pemain besar di industri teknologi digital. Maka, wajar jika pemerintah di sana menggunakan pendekatan pengaturan kecerdasan buatan yang terkesan lebih tegas.
Indonesia mempunyai perusahaan lokal yang perlu dilindungi. Hal terpenting adalah bagaimana produk teknologi mereka bisa digunakan dulu. SE Etika Kecerdasan Buatan akan menjadi jalan tengah bagi perusahaan lokal supaya mengarahkan diri mereka ke tata kelola AI seperti yang dijalankan oleh perusahaan besar.
”Perlu dilihat juga bagaimana visi-misi Pemerintah Indonesia mengenai kecerdasan buatan. Hal seperti ini perlu tercantum dalam dokumen hukum seperti strategi nasional kecerdasan buatan,” katanya.