Pengembangan Kecerdasan Buatan Harus Melalui Uji Keamanan
OpenAI sudah menambahkan tanda ke gambar yang dihasilkan oleh teknologi pembuat gambar Dall-E dan Google mengatakan sedang mengembangkan teknologi serupa untuk gambar yang dihasilkan oleh AI mereka.
Oleh
ANDREAS MARYOTO
·4 menit baca
Saat selesai menonton film Mission Impossible 7: Dead Reckoning Part 1, kita penasaran dengan kemungkinan ”ulah” Entity yang merupakan produk kecerdasan buatan. Apa yang akan terjadi dengan dunia ketika produk ini memiliki kemampuan yang sangat dahsyat? Kemampuan Entity dari mulai mengakses dokumen, menirukan suara, dan memprediksi masa depan menjadikan ia sebagai musuh besar. Semua ini memang fiksi, tetapi potensi kekhawatiran produk kecerdasan buatan menjadi musuh manusia adalah nyata.
Pertemuan Presiden Amerika Serikat Joe Bidden dengan tujuh perusahaan pengembang kecerdasan buatan (AI) pekan lalu, meski tak terkait dengan film itu, sebenarnya memiliki kesamaan dalam hal kecemasan tentang masa depan pengembangan AI. Ketujuh perusahaan itu, yakni OpenAI, Google, Meta, Amazon, Inflection, Anthropic, dan Microsoft, dalam pertemuan itu secara sukarela berkomitmen untuk mengembangkan AI yang aman dan transparan. Langkah ini merupakan kemajuan setelah publik mempermasalahkan kemungkinan dampak dari pengembangan AI.
Seperti diberitakan beberapa waktu lalu, sejumlah kalangan menandatangani petisi yang meminta agar pengembangan lanjut kecerdasan buatan ChatGPT ditunda sementara. Mereka mencemaskan dampak yang mungkin muncul akibat pengembangan teknologi kecerdasan buatan ini. Dunia pendidikan juga sudah mewanti-wanti agar pengembangan kecerdasan buatan generatif lebih hati-hati karena penggunaan teknologi tersebut bisa memunculkan masalah etis dalam pengajaran.
Gedung Putih menyatakan, mereka ingin menjaga agar perusahaan teknologi tetap bisa melakukan inovasi seperti yang dilakukan selama ini, tetapi mereka juga memiliki panduan dalam pengembangan kecerdasan buatan. Setidaknya agar tidak kebablasan. Amerika Serikat tentu berkepentingan agar mereka tetap memimpin dalam inovasi secara global, tetapi juga mengupayakan perlindungan terhadap risiko kecerdasan buatan. Mereka tidak ingin kalah oleh pesaing terdekat mereka, yaitu China, tetapi ingin memastikan bahwa AI tetap aman.
Ketujuh perusahaan dan kemungkinan besar perusahaan lain yang tidak ikut serta dalam pertemuan dengan Biden berkomitmen untuk, antara lain, melakukan uji keamanan baik internal dan eksternal terhadap sistem AI sebelum mereka merilis ke publik, termasuk oleh sebuah tim yang mungkin berseberangan dengan mereka, semisal oleh pakar di luar perusahaan. Mereka akan membagikan informasi kepada pemerintah, akademisi, dan masyarakat sipil tentang risiko AI dan teknik mitigasi bila memunculkan masalah besar.
Mereka juga akan berinvestasi dalam keamanan siber dan perlindungan dari ancaman orang dalam untuk melindungi data pribadi. Hal ini dianggap penting bukan hanya untuk melindungi IP, tetapi karena tindakan rilis secara luas sebelum waktunya dapat menjadi peluang bagi pelaku jahat.
Perusahaan teknologi akan memfasilitasi penemuan dan pelaporan kerentanan pihak ketiga. Mereka akan mengembangkan penanda yang kuat atau penandaan dengan cara lain untuk menandai konten yang dihasilkan oleh AI. Mereka akan melaporkan kemampuan, batasan, dan area penggunaan AI yang sesuai dan yang tidak pantas dari sistem AI.
Pengembang akan memprioritaskan penelitian tentang risiko sosial, seperti bias sistematis atau masalah privasi. Mereka juga akan mengembangkan dan menerapkan AI untuk membantu mengatasi tantangan terbesar masyarakat, seperti pencegahan kanker dan perubahan iklim. Mereka ingin terlibat dalam berbagai tantangan global dan ikut menyelesaikannya.
Komitmen ini menjadi semacam jembatan menuju pengaturan pengembangan kecerdasan buatan. Sambil menunggu pengaturan, komitmen ini menjadi pegangan bagi semua pihak dalam pengembangan AI. Pengaturan sendiri diperkirakan memakan waktu lama untuk proses legislasinya. Sementara publik membutuhkan perlindungan dari berbagai risiko pengembangan kecerdasan buatan. Perusahaan teknologi menjadi lebih leluasa dalam mengembangkan teknologi terbaru.
Meski demikian, pertanyaan yang muncul adalah bagaimana prosedur uji keamanan bisa dilakukan? Uji internal lebih mudah dilakukan karena hanya melibatkan orang dalam. Uji eksternal kemungkinan bisa memunculkan masalah. Perusahaan teknologi tentu berusaha untuk melindungi kekayaan intelektual mereka. Akan tetapi, dengan komitmen itu, mereka harus mengundang pihak luar untuk memastikan produk mereka aman. Perusahaan teknologi mungkin tidak leluasa dalam membuka produk mereka.
”Perusahaan memiliki kewajiban untuk memastikan bahwa produk mereka aman sebelum memperkenalkannya kepada publik dengan menguji keamanan dan kemampuan sistem AI mereka,” kata penasihat khusus Gedung Putih untuk AI Ben Buchanan kepada wartawan seperti dikutip Wired.com. Risiko yang diminta untuk diwaspadai oleh perusahaan termasuk pelanggaran privasi dan bahkan kontribusi potensial terhadap ancaman biologis. Perusahaan juga berkomitmen untuk melaporkan secara terbuka keterbatasan sistem mereka dan risiko keamanan dan sosial yang dapat mereka timbulkan.
Kabar terbaru menyebutkan, OpenAI sudah menambahkan tanda ke gambar yang dihasilkan oleh teknologi pembuat gambar Dall-E dan Google mengatakan sedang mengembangkan teknologi serupa untuk gambar yang dihasilkan oleh AI mereka. Cara ini diharapkan bisa membantu orang membedakan mana yang nyata dan mana yang palsu. Salah satu yang ingin diselesaikan berkait dengan tanda ini adalah masalah yang berkembang karena kampanye politik tampaknya beralih ke AI generatif menjelang pemilu AS pada tahun 2024. Gedung Putih tidak ingin teknologi ini digunakan untuk kampanye hitam.
Apa sebenarnya yang terjadi di balik komitmen perusahaan pengembang AI ini? Berbagai komitmen ini sepertinya juga menjadi jalan tengah di tengah tekanan publik terhadap pemerintah AS agar segera melindungi warga dari kemungkinan dampak negatif AI. Dengan komitmen ini, Pemerintah AS telah memperhatikan keinginan dan kritik dari mereka yang membuat advokasi perlidungan warga.
Perusahaan teknologi pun menjadi lebih leluasa karena selama ini mereka mendapat tekanan dari DPR yang terus berusaha ”mengerangkeng” pengembangan teknologi. Tekanan-tekanan terhadap perusahaan teknologi memang dirasakan oleh mereka di dalam berbagai isu seperti isu persaingan usaha, privasi, dan dampak teknologi. Komitmen ini menjadi pilihan terbaik antara pemerintah dan perusahaan teknologi yang terus menerus menerjunkan juru lobi mereka agar DPR tidak membuat aturan yang terlalu mengekang mereka.