Pengembangan Kecerdasan Buatan Memunculkan Dilema Baru
Sistem AI yang kuat harus dikembangkan hanya setelah kita yakin bahwa efeknya akan positif dan risikonya dapat dikelola.
Oleh
ANDREAS MARYOTO
·5 menit baca
Seorang rekan langsung merespons ketika sejumlah tokoh global meminta agar peluncuran dan pengembangan kecerdasan buatan (AI) seri berikutnya, secara khusus menyebut Chat GPT4, ditunda untuk sementara. Ia mengatakan, pengembangan kecerdasan buatan terlalu cepat dipastikan akan merugikan manusia sendiri dan bahkan bisa menghentikan sisi kemanusiaan, yaitu kemampuan berpikir. Semua menjadi bergantung pada AI.
Seperti diberitakan sebelumnya, sampai dengan Jumat pekan lalu pukul 07.00 WIB, sebanyak 1.744 pakar, eksekutif, dan warga pemerhati industri teknologi menandatangani petisi yang menyerukan penangguhan pengembangan kecerdasan buatan selama enam bulan ke depan. Rabu kemarin, jumlah yang menandatangani meningkat dan telah mencapai hampir 9.000 orang. Pertimbangan mereka, mitigasi risiko pengembangan kecerdasan buatan harus dipastikan terlebih dahulu sebelum kebablasan merugikan manusia.
Rekan tadi mengingatkan, bila dulu teknologi hadir secara perlahan dan kemudian manusia melakukan adaptasi. Keterampilan baru muncul, sementara keterampilan lama perlahan menghilang. Perubahan ini sangat mulus. Akan tetapi, dengan teknologi AI, perubahan itu bisa sangat cepat dalam hitungan hari dan bulan. Beberapa jenis pekerjaan akan langsung hilang dan sudah pasti akan memunculkan pemutusan hubungan kerja.
Seorang rekan lain mengatakan, ilustrasi untuk sebuah cerpen selama ini dikerjakan oleh seniman. Biaya yang dikeluarkan sekitar Rp 1 juta untuk satu karya. Bila dalam setahun, dibutuhkan biaya sekitar Rp 52 juta. Dengan menggunakan teknologi kecerdasan buatan, sebuah karya bisa muncul dalam hitungan kurang dari 1 menit hanya berbiaya 60 dollar AS setahun atau sekitar Rp 900.000. Pekerjaan ilustrator sangat boleh jadi akan langsung hilang dalam sekejap.
Satu contoh ini sudah cukup memperlihatkan betapa teknologi kecerdasan buatan akan membuat beberapa orang langsung kehilangan pekerjaan. Pekerjaan lain mungkin juga akan segera hilang karena teknologi tersebut mampu menyusun tuntutan hukum, mengerjakan ujian standar hingga lulus, membangun situs, dan membagun sebuah sistem hanya dengan sketsa yang digambar dengan tangan. Untuk membuat pengodean (coding), seseorang perlu waktu cukup lama. Kini dengan teknologi AI, proses tersebut hanya butuh dalam beberapa menit.
Belum lagi persoalan moral yang mungkin muncul, seperti diskriminasi dan stereotipe, ketidaksetaraan jender, dan disinformasi. Ada juga persoalan yang menyerang hak privasi, perlindungan data pribadi, serta hak asasi manusia, dan lingkungan. Teknologi kecerdasan buatan memungkinkan manusia ”mendidik” sistem. Bila input yang diberikan tidak tepat, sistem akan bekerja secara salah. Contoh kasus ini sudah banyak, seperti teknologi finansial yang dengan mudah memberikan skoring lebih baik kepada laki-laki dibandingkan dengan perempuan karena persoalan akses. Demikian pula skoring pada penduduk kota lebih bagus dibandingkan dengan penduduk desa.
Tidak mengherankan apabila Organisasi Pendidikan, Ilmu Pengetahuan, dan Kebudayaan Perserikatan Bangsa-Bangsa (UNESCO) menyerukan sekaligus mengingatkan semua pemerintahan untuk mengimplementasikan kerangka kerja etika dalam penerapan kecerdasan buatan. Seruan ini disampaikan sehari setelah rilis petisi yang ditandatangani para tokoh teknologi menyerukan penangguhan pengembangan teknologi kecerdasan buatan.
Kembali pada keinginan sejumlah tokoh agar pengembangan AI ditunda dulu. Apakah alasan yang mendasari permintaan ini? The Future of Life Institute, lembaga pemikir yang menginisiasi permintaan penundaan itu, menyebutkan bahwa mereka mengutip 12 penelitian dari para ahli, termasuk akademisi universitas serta mantan karyawan OpenAI, Google, dan anak perusahaannya, DeepMind. Dari hasil riset itu, kemudian lembaga tersebut meminta penundaan peluncuran Chat GPT-4.
Alasan mereka, antara lain, ialah sistem AI dengan kecerdasan yang sangat kompetitif dapat menimbulkan risiko besar bagi masyarakat dan kemanusiaan. Sebagaimana dinyatakan dalam Asilomar AI Principles yang didukung secara luas, AI Lanjutan dapat mewakili perubahan besar dalam sejarah kehidupan di Bumi sehingga harus direncanakan dan dikelola dengan perawatan dan sumber daya yang sepadan. Sayangnya, tingkat perencanaan dan manajemen ini tidak terjadi meskipun beberapa bulan terakhir laboratorium AI di berbagai perusahaan terkunci dalam perlombaan di luar kendali untuk mengembangkan dan menerapkan pikiran digital yang semakin kuat yang tidak dapat dipahami oleh siapa pun, bahkan oleh pembuatnya sendiri.
Sistem AI kontemporer sekarang menjadi pesaing manusia dalam tugas-tugas umum. Kita harus bertanya kepada diri sendiri, haruskah kita mengotomatisasikan semua pekerjaan? Haruskah kita mengembangkan pikiran bukan manusia yang pada akhirnya mungkin melebihi jumlah, mengakali, usang, dan menggantikan kita? Haruskah kita mengambil risiko kehilangan kendali atas peradaban kita? Keputusan semacam itu tidak boleh didelegasikan kepada pemimpin teknologi yang tidak sesuai. Sistem AI yang kuat harus dikembangkan hanya setelah kita yakin bahwa efeknya akan positif dan risikonya dapat dikelola. Keyakinan ini harus dibenarkan dengan baik dan meningkat dengan besarnya efek potensial sistem.
Meski mendapat sambutan banyak kalangan, sejumlah orang mengkritik cara-cara yang dipakai oleh The Future of Life Institute. Laman The Guardian menyebutkan, empat ahli yang hasil risetnya dikutip dalam surat tersebut menyatakan keprihatinan bahwa penelitian mereka digunakan untuk membuat klaim semacam itu.
Di antara penelitian yang dikutip adalah On the Dangers of Stochastic Parrots, sebuah makalah terkenal yang ditulis bersama oleh Margaret Mitchell. Ia sebelumnya mengawasi penelitian persoalan etis dalam pengembangan AI di Google. Sekarang Mitchell adalah kepala ilmuwan etika di perusahaan AI Hugging Face. Ia mengkritik surat tersebut dan mengatakan kepada Reuters bahwa tidak jelas apa yang dianggap ”lebih kuat dari GPT4”.
Di sisi lain, para peneliti AI lainnya mengkritik pendekatan lembaga tersebut. Ilmuwan komputer Andrew Ng, pendiri Google Brain, menyebut moratorium sebagai ”ide yang buruk” di Twitter karena intervensi pemerintah akan menjadi satu-satunya cara yang mungkin untuk menegakkannya. ”Saya melihat banyak aplikasi baru di bidang pendidikan, perawatan kesehatan, makanan,... itu akan membantu banyak orang. Meningkatkan kemampuan GPT-4 akan membantu,” cuitnya.
”Mari kita seimbangkan nilai besar yang diciptakan AI versus risiko yang lebih realistis. Untuk memajukan keamanan AI, peraturan seputar transparansi dan audit akan lebih praktis dan membuat perbedaan yang lebih besar,” kata Andrew. Bisa dibayangkan bila semua pengembangan teknologi dihambat, manusia tidak akan mengalami kemajuan seperti sekarang ini. Peneliti lain juga mengingatkan kompetisi pengembagan AI terkait dengan geopolitik. Bila Amerika Serikat berhenti mengembangkan AI, China akan mengambil alih dan menjadi penguasa di bidang ini.
Jalan tengah yang diusulkan beberapa kalangan adalah agar pemerintah meregulasi pengembangan AI. Penulis bernama James Hockaday di Yahoo!News menyebutkan, Pemerintah Inggris berencana menerbitkan aturan tentang bagaimana mereka ingin mengatur teknologi AI, mengambil apa yang telah digambarkan oleh beberapa orang sebagai pendekatan ”sentuhan ringan” karena sebenarnya mereka tetap berusaha untuk mendorong pertumbuhan industri ini. Alih-alih membuat regulator baru, mereka ingin memberdayakan regulator yang ada untuk menghasilkan pendekatan khusus konteks yang disesuaikan untuk memastikan teknologi ini digunakan secara bertanggung jawab.
Akan tetapi, kemampuan sebuah pemerintah membuat regulasi biasanya kalah cepat dengan pengembangan teknologi. Akibatnya, ketika aturan keluar, pasal-pasal yang ada langsung usang. Sekarang kita memang berada di era dilema besar menghadapi perubahan yang berhubungan dengan teknologi. Membolehkan atau melarang pengembangan AI? Membiarkan atau meregulasi teknologi AI? Meski demikian, kita tidak boleh menyerah dengan dilema. Bukankah dilema itu juga yang membuat orang makin kreatif? Manusia juga sudah lama mengalami dilema dalam pengembangan teknologi yang sangat berpengaruh. Dilema menyebabkan orang terus mencari cara untuk menyelesaikan masalah.