Pemerintah Siapkan Kebijakan tentang Etika Kecerdasan Buatan
UNESCO merekomendasikan bahwa kecerdasan buatan harus untuk kebaikan umat manusia dan lingkungan. Rekomendasi itu juga memuat prinsip dasar, antara lain, proporsionalitas, keselamatan dan keamanan, serta transparansi.
Oleh
MEDIANA
·4 menit baca
JAKARTA, KOMPAS — Kementerian Komunikasi dan Informatika berencana menyusun kebijakan tentang etika terkait pengembangan inovasi teknologi kecerdasan buatan. Adopsi dan inovasi kecerdasan buatan di Indonesia marak berkembang seperti di negara-negara lain. Namun, ada kekhawatiran kebijakan tersebut berpotensi bakal membatasi inovasi.
Staf Ahli Bidang Teknologi Kementerian Komunikasi dan Informatika (Kemenkominfo) Mochamad Hadiyana, di sela-sela kegiatan IBM Think Experience and Tech Summit Jakarta 2023, Kamis (10/8/2023), di Jakarta, menyampaikan, pihaknya berencana menyusun kebijakan terkait etika pengembangan kecerdasan buatan. Format kebijakan sejauh ini masih dikaji oleh tim legal, tetapi sempat muncul usulan berupa peraturan presiden.
Substansi kebijakannya akan mengambil dari standar-standar internasional. Sebagai contoh, Recommendation on The Ethics of Artificial Intelligence dari Organisasi Pendidikan, Keilmuan, dan Kebudayaan PBB (UNESCO) di Paris, 9-24 November 2021. Inti dari rekomendasi UNESCO itu adalah kecerdasan buatan harus berfungsi untuk kebaikan umat manusia dan lingkungan. Pada rekomendasi tersebut juga terkandung 10 prinsip dasar, antara lain, proporsionalitas, keselamatan dan keamanan, serta transparansi.
Sebelumnya, pemerintah telah memiliki sejumlah regulasi yang di dalamnya menyinggung kecerdasan buatan. Misalnya, Peraturan Menteri Komunikasi dan Informatika Nomor 3 Tahun 2021 tentang Standar Kegiatan Usaha dan Standar Produk pada Penyelenggaraan Perizinan Perusahaan Berbasis Risiko. Dalam beleid ini, aktivitas pemrograman berbasis kecerdasan buatan mencakup konsultasi yang dilanjutkan analisis dan pemrograman yang memanfaatkan teknologi kecerdasan buatan, termasuk hal-hal yang masih berkaitan, seperti machine learning, natural language processing, dan sistem ahli. Kemenkominfo akan melakukan penilaian kesesuaian dan pengawasannya.
Contoh peraturan lainnya adalah Peraturan Menkominfo Nomor 5 Tahun 2020 tentang Penyelenggara Sistem Elektronik Lingkup Privat serta Perubahannya dan Peraturan Pemerintah Nomor 71 Tahun 2019 tentang Penyelenggaraan Sistem dan Transaksi Elektronik.
Berdasarkan survei Ipsos, firma konsultan pemasaran yang berkantor pusat di Paris, Indonesia menjadi negara yang paling optimistis terhadap kecerdasan buatan karena menganggap teknologi ini akan membawa lebih banyak manfaat dibanding kerugian. Survei Ipsos dilakukan terhadap 22.816 responden di 31 negara pada 26 Mei -9 Juni 2023.
Setiap perusahaan, seperti IBM, juga memiliki kebijakan internal terkait pengembangan inovasi produk berbasis kecerdasan buatan.
Menurut Hadiyana, terdapat sejumlah potensi masalah yang muncul selama pengembangan inovasi produk berbasis kecerdasan buatan. Terobosan kemampuan yang dimiliki oleh teknologi ini berpotensi berdampak negatif terhadap kehidupan manusia. ”Makanya harus diantisipasi. Pengembangan inovasi kecerdasan buatan sejak pemrograman harus beretika,” ucapnya.
Di luar negeri, pengaturan kecerdasan buatan telah menjadi topik hangat beberapa bulan terakhir. Di Amerika Serikat mencuat pengumuman komitmen voluntary artificial intelligence oleh tujuh perusahaan teknologi. Sementara itu, parlemen Eropa, cabang legislatif utama Uni Eropa, telah mengesahkan rancangan undang-undang yang dikenal sebagai AI Act, yang akan memberikan batasan baru terhadap apa yang dianggap sebagai penggunaan teknologi paling berisiko. Adapun di China, draf aturan yang diluncurkan April 2023 mengharuskan pembuat chatbot untuk mematuhi aturan sensor ketat negara itu. Pemerintah China juga mengambil kendali lebih besar atas cara pembuat kecerdasan buatan dengan menggunakan data.
Dari sisi pelaku industri, Presiden Direktur IBM Indonesia Roy Kosasih membenarkan bahwa banyak negara sedang membahas bagaimana mengatur kecerdasan buatan. Akan tetapi, setiap perusahaan, seperti IBM, juga memiliki kebijakan internal terkait pengembangan inovasi produk berbasis kecerdasan buatan. Sebagai contoh, platform kecerdasan buatan IBM bernama Watsonx mempunyai model-model untuk memastikan akurasi dan mencegah pembuatan informasi palsu. Selain itu, fitur keamanan dan otomatisasi yang ada memungkinkan para ilmuwan data dan pengembang menggunakan data perusahaan yang diatur.
”Etika yang tepat untuk pengembangan inovasi kecerdasan buatan dikembalikan kepada pemerintah atau perusahaan masing-masing. Kriteria etika tentunya diputuskan oleh pemerintah suatu negara,” ujar Roy.
Direktur Eksekutif Lembaga Studi dan Advokasi Masyarakat (Elsam) Wahyudi Djafar, saat dihubungi terpisah, berpendapat, ketika membahas etika pemanfaatan dan pengembangan inovasi kecerdasan buatan, pemerintah sebaiknya tidak membuatnya langsung dalam format peraturan. Sebab, ini (peraturan) akan berisiko membatasi inovasi.
Pemerintah sebaiknya tidak membuatnya langsung dalam format peraturan. Sebab, ini (peraturan) akan berisiko membatasi inovasi.
Berbicara etika berarti berbicara mengenai pedoman perilaku. Oleh karena itu, etika pemanfaatan dan pengembangan inovasi kecerdasan buatan seharusnya berformat prinsip sukarela (voluntary principal). Voluntary principal bisa menjadi rujukan umum untuk pembuatan pedoman perilaku per sektor yang akan memanfaatkan dan mengembangkan inovasi kecerdasan buatan.
”Kami mendorong terciptanya sebuah forum multi pemangku kepentingan yang melahirkan voluntary principal kecerdasan buatan. Di dalamnya mengandung prinsip nondiskriminasi, inklusif, transparan, perlindungan data pribadi, dan keamanan siber. Prinsip perlindungan data pribadi bisa mengacu kepada regulasi yang sudah ditetapkan pemerintah,” kata Wahyudi.
Sementara itu, dosen pada Departemen Teknik Elektro dan Teknologi Informasi Fakultas Teknik Universitas Gadjah Mada, Sunu Wibirama, berpendapat, salah satu isu etika yang penting dalam pengembangan inovasi kecerdasan buatan adalah data. Data yang dipakai untuk melatih kecerdasan buatan harus legal. Pemilik datanya juga harus diberitahu sebelum data tersebut dipakai atau informed consent.
”Penggunaan kecerdasan buatan di sektor-sektor kritis harus tetap membutuhkan human evaluator,” ujar Sunu.