Saatnya Pemerintah Meregulasi Pengembangan Kecerdasan Buatan
Beberapa kalangan meminta agar pemerintah mulai tampil ke permukaan untuk membahas masalah dilema teknologi ini. Uni Eropa dan China sudah sangat maju.
Oleh
ANDREAS MARYOTO
·4 menit baca
Pekan lalu Presiden Amerika Serikat Joe Biden bertemu dengan pimpinan puncak perusahaan teknologi. Pertemuan ini terbilang menjadi langkah awal AS mendengarkan pendapat mereka. Dalam kesempatan itu, Biden meminta para bos perusahaan teknologi untuk melihat sisi untung dan rugi pengembangan kecerdasan buatan sebelum pemerintah bisa memberi panduan tentang masa depan pengembangan kecerdasan buatan.
Hampir setiap hari kita menemukan tema-tema mengejutkan dalam pengembangan kecerdasan buatan. Kita mendengar dari mulai teknologi kecerdasan buatan yang berusaha menyerupai Tuhan (God-like AI), kita bisa berbincang dengan orang-orang dekat kita yang sudah meninggal, dan mesin bisa menyarankan jodoh untuk kita atau sebaliknya mesin bisa menyarankan kita bercerai dengan pasangan kita.
Daftar ”kehebatan” kecerdasan buatan makin panjang setiap harinya dari mulai kemampuan untuk mendeteksi penyakit, menekan penggunaan energi, membantu membuat sebuah riset, dan lain-lain. Produk yang masih hangat-hangatnya, yaitu Chat GPT, telah membantu kita membuat teks pidato dan ceramah serta mencari informasi yang sangat akurat. Pada saat yang sama, potensi kecerdasan buatan disalahgunakan untuk menebar hoaks dan disinformasi pun muncul. Aksi tercela bakal makin sering muncul.
Permintaan agar semua pihak untuk sementara mengerem pengembangan kecerdasan buatan mulai muncul. Beberapa kalangan meminta agar pemerintah mulai tampil ke permukaan untuk membahas masalah dilema teknologi ini. Uni Eropa dan China sudah sangat maju. Mereka tengah menyusun peraturan dan regulasi untuk mengatur pengembangan kecerdasan buatan. Otoritas persaingan usaha di Inggris segera melakukan peninjauan terhadap pengembangan dan persaingan di dalam pasar kecerdasan buatan.
Sejauh mana pengembangan kecerdasan buatan yang tanpa kendali itu membahayakan? Beberapa waktu lalu sejumlah tokoh telah membuat surat terbuka yang meminta penundaan sekitar enam bulan dalam pengembangan kecerdasan buatan. Alasannya menyebut soal bahaya pengembangan kecerdasan buatan yang sudah terlalu jauh. The Future of Life Institute adalah lembaga pemikir yang menginisiasi permintaan penundaan itu. Mereka menyebutkan, keputusan itu berdasarkan 12 penelitian para ahli, termasuk akademisi universitas serta mantan karyawan OpenAI, Google, dan anak perusahaannya, DeepMind.
Dewan redaksi Financial Times juga melihat masalah tersebut. Mereka melihat beberapa sisi pengembangan kecerdasan buatan memiliki risiko hingga bisa mematikan. Kecelakaan yang muncul karena teknologi kecerdasan buatan juga perlu diungkap. Dalam salah satu opini editorialnya berjudul ”AI Needs Superintelligent Regulation”, mereka menyarankan agar pemerintah berbagai negara membuat regulasi untuk pengembangan kecerdasan buatan lebih lanjut.
Kecemasan terhadap pengembangan kecerdasan buatan yang terlalu jauh juga disuarakan oleh "The Godfather of AI" yaitu Geoffrey Hinton. Ia yang merupakan pionir pengembangan jaringan neural untuk membuat imitasi kerja otak memilih keluar dari Google. Alasannya pengembangan kecerdasan buatan belum memiliki pedoman etis yang jelas. Kompetisi pengembangan kecerdasan buatan juga akan membuat yang kaya makin kaya dan yang miskin tetap miskin. Teknologi tersebut juga tidak dibangun untuk kebaika semua orang.
Mereka melihat beberapa sisi pengembangan kecerdasan buatan memiliki risiko hingga bisa mematikan.
Mereka menyebutkan langkah yang bisa diambil pemerintah dalam waktu dekat. Langkah pertama adalah agar industri teknologi itu sendiri menyetujui dan menerapkan beberapa prinsip umum tentang transparansi, akuntabilitas, dan keadilan dalam pengembangan kecerdasan buatan. Misalnya, perusahaan tidak boleh mencoba menganggap bot percakapan sebagai manusia dengan memberitahukan kepada konsumen bahwa yang menjawab pertanyaan konsumen adalah sebuah mesin.
Langkah kedua adalah agar semua regulator, di bidang-bidang seperti ketenagakerjaan, pasar keuangan, perlindungan konsumen, kebijakan persaingan usaha, perlindungan data, privasi, dan hak asasi manusia, untuk mengubah aturan yang ada dengan memperhitungkan risiko spesifik yang ditimbulkan oleh kecerdasan buatan. Langkah ketiga adalah agar lembaga pemerintah dan universitas memperdalam keahlian teknologi mereka sendiri untuk mengetahui cara-cara mengurangi risiko di dalam industri tersebut.
Lebih detail Financial Times menyoroti kemungkinan rezim peraturan yang menyeluruh yang harus dipertimbangkan dalam pengembangan kecerdasan buatan. Mereka membagi dua model rezim. Secara prinsip, kedua model itu adalah model rezim yang sejak awal harus berhati-hati karena sangat jelas memiliki risiko besar dan model kedua adalah tata kelola yang muncul dan dikembangkan karena setelah kejadian atau kecelakaan.
Model rezim pertama, berdasarkan prinsip kehati-hatian berarti bahwa algoritma yang digunakan di beberapa di area kritis, hidup dan mati, seperti perawatan kesehatan, sistem peradilan, dan militer, memerlukan persetujuan awal sebelum digunakan. Cara ini dapat beroperasi dengan cara yang hampir sama dengan Badan Pengawas Obat dan Makanan AS, yang menyaring obat-obatan farmasi sebelum dirilis dan memiliki wewenang yang lebih luas untuk melindungi dan meningkatkan kesehatan masyarakat.
Model rezim kedua, lebih fleksibel yang didasarkan pada tata kelola yang muncul dengan sendirinya ketika masalah muncul, seperti yang digunakan di industri penerbangan. Meski terdengar mengkhawatirkan karena tata kelola muncul setelah kejadian, cara ini telah bekerja sangat efektif dalam meningkatkan standar keselamatan udara selama beberapa dekade terakhir. Otoritas penerbangan internasional sejak dulu memiliki kekuatan untuk mengamanatkan perubahan untuk semua produsen pesawat dan maskapai penerbangan setelah kesalahan terdeteksi. Sesuatu yang serupa dapat digunakan ketika kelemahan berbahaya ditemukan pada model kecerdasan buatan yang berhadapan dengan konsumen, seperti mobil tanpa pengemudi.
Pengembangan teknologi kecerdasan buatan yang banyak membantu manusia ternyata juga masih menyimpan masalah, seperti diskriminasi, pencurian karya, membantu sejumlah orang meradikalisasi anggota komunitas, dan kecelakaan. Saatnya pemerintah di sejumlah negara meningkatkan pengetahuan dan segera membuat regulasi agar pengembangan kecerdasan buatan tidak salah arah dan mematikan. Indonesia juga perlu memulai. Cara seperti Biden mengumpulkan pimpinan perusahaan teknologi merupakan langkah yang tepat untuk mendengarkan suara mereka terlebih dulu. Kemudian saran-saran standar, seperti soal transparansi dan penghormatan hak asasi, bisa dikeluarkan lebih dulu.