Petisi Para Tokoh Teknologi: Tangguhkan Pengembangan Kecerdasan Buatan
Sistem kecerdasan buatan yang kuat hanya bisa dikembangkan setelah kita yakin bahwa dampak-dampaknya akan positif dan risiko-risikonya akan terkendali. Saat ini, jeda diperlukan untuk memitigasi risiko.
Sampai dengan Jumat (31/3/2023) pukul 07.00 WIB, 1.744 pakar, eksekutif, dan warga pemerhati industri teknologi menandatangani petisi yang menyerukan penangguhan pengembangan kecerdasan buatan atau artificial intelligence selama enam bulan ke depan. Pertimbangannya, mitigasi risiko pengembangan kecerdasan buatan harus dipastikan terlebih dahulu sebelum kebablasan merugikan manusia.
"Sistem kecerdasan buatan yang kuat hanya bisa dikembangkan setelah kita yakin bahwa dampak-dampaknya akan positif dan risiko-risikonya akan terkendali,” bunyi salah satu bagian petisi yang diunggah pada laman Future of Life Institute, Rabu (29/3/2023).
Future of Life Institute adalah lembaga nirlaba yang donatur utamanya adalah Musk Foundation. Merujuk catatan Uni Eropa, donator lainnya adalah Founders Pledge yang berbasis di London dan Silicon Valley Community Foundation.
Sistem kecerdasan buatan yang kuat hanya bisa dikembangkan setelah kita yakin bahwa dampak-dampaknya akan positif dan risiko-risikonya akan terkendali.
Masa jeda selama enam bulan sebagaimana diserukan petisi harus dimanfaatkan oleh laboratorium-laboratorium Artificial Intelligence (AI) dan pakar-pakar independen untuk bersama-sama mengembangkan dan mengimplementasikan protokol keamanan bersama untuk desain dan pengembangan AI generasi lanjutan yang diaudit secara ketat dan diawasi oleh para ahli luar yang independen.
Secara paralel, masih mengutip petisi, pengembang AI harus bekerja sama dengan pembuat kebijakan untuk segera mempercepat pengembangan sistem tata kelola AI yang kuat. Ini minimal mencakup beberapa hal, antara lain: otoritas baru yang kompeten dan khusus menangani AI.
Petisi ini keluar dua pekan setelah OpenAI mengumumkan GPT-4, generasi yang lebih maju untuk AI chatbot ChatGPT yang memicu perlombaan antara Microsoft dan Google untuk mengembangkan aplikasi serupa.
Dalam tes awal dan demo perusahaan, teknologi tersebut diperlihatkan mampu menyusun tuntutan hukum, mengerjakan ujian standar hingga lulus, dan membangun situs web yang berfungsi hanya dengan sketsa yang digambar tangan.
Kepolisian Uni Eropa, Senin (27/3/2023), juga memperingatkan potensi penyalahgunaan sistem AI untuk pembohongan, disinformasi, dan kejahatan siber.
Kekhawatiran tentang dampak AI sebelumnya telah diserukan oleh para legislator di Amerika Serikat (AS). Mereka mempertanyakan dampak ChatGPT terhadap keamanan nasional dan pendidikan.
Kepolisian Uni Eropa, Senin (27/3/2023), juga memperingatkan potensi penyalahgunaan sistem AI untuk pembohongan, disinformasi, dan kejahatan siber. Sementara itu, Pemerintah Inggris meluncurkan proposal untuk kerangka peraturan tentang kecerdasan buatanAI.
Pada Kamis (30/3/2023) pukul 20.00 WIB, petisi telah ditandatangani oleh 1.377 orang. Selanjutnya sampai dengan Jumat (31/3/2023) pukul 07.00 WIB, 1.744 orang telah menandatangani petisi. Termasuk di antaranya dan yang disebut pada urutan pertama adalah perintis kecerdasan buatan atau artificial intelligence (AI), Yoshua Bengio.
Ada pula peneliti AI terkemuka lainnya seperti Stuart Russell dari Universitas California-Berkeley dan Gary Marcus dari Universitas New York. Tak ketinggalan juga Elon Musk (CEO Tesla), Steve Wozniak (Co-founder Apple), dan Yuval Noah Harari (Profesor Hebrew University of Jerusalem).
Sementara, CEO OpenAI, Sam Altman, tidak termasuk dalam tokoh yang menandatangani petisi tersebut. Demikian pula dengan CEO Alphabet Sundar Pichai dan CEO Microsoft Satya Nadella.
Mari kita pelan-pelan. Mari kita pastikan bahwa kita mengembangkan pagar pembatas yang lebih baik sebagaimana kita telah melakukannya untuk kekuatan nuklir dan senjata nuklir.
Dalam konferensi pers virtual di Montreal, Kanada, Yoshua Bengio, mengingatkan, "masyarakat belum siap” untuk peralatan yang penuh kekuatan ini. Oleh karena itu, sangat mungkin terjadi kesalahan dalam penggunaannya.
"Mari kita pelan-pelan. Mari kita pastikan bahwa kita mengembangkan pagar pembatas yang lebih baik sebagaimana kita telah melakukannya untuk kekuatan nuklir dan senjata nuklir," katanya.
Gary Marcus, professor Universitas New York yang juga ikut menandatangani petisi, menyatakan, petisi tidaklah sempurna. Namun semangat yang mendasarinya benar, yakni dunia harus pelan-pelan sampai memahami konsekuensinya dengan lebih baik.
"Para pemain besar menjadi semakin merahasiakan apa yang sedang mereka kerjakan, yang akhirnya membuat masyarakat kesulitan mempertahankan diri dari kerugian apa pun yang mungkin terjadi,” katanya.
Sejak dirilis akhir tahun lalu, ChatGPT telah mendorong kompetisi di antara para pesaing dalam mempercepat pengembangan model serupa. Alphabet Inc misalnya, memacu produk-produknya di AI. Para investor, yang khawatir jika hanya mengandalkan pada satu korporasi saja, merangkul pesaing OpenAI.
Microsoft menolak mengomentari petisi itu. Sementara Alphabet tidak menanggapi panggilan dan email untuk komentar.
"Banyak kekuatan untuk mengembangkan sistem ini terus-menerus berada di tangan beberapa perusahaan yang memiliki sumber daya untuk melakukannya. Begitulah model-model ini, sulit dibangun dan sulit didemokratisasi," kata Suresh Venkatasubramanian, profesor di Universitas Brown dan mantan asisten direktur di Kantor Sains dan Teknologi Gedung Putih.
Banyak kekuatan untuk mengembangkan sistem ini terus-menerus berada di tangan beberapa perusahaan yang memiliki sumber daya untuk melakukannya. Begitulah model-model ini, sulit dibangun dan sulit didemokratisasi.
Petisi menyebutkan, sistem AI dengan kecerdasan kompetitif manusia dapat menimbulkan risiko besar bagi masyarakat dan kemanusiaan. Penelitian luas telah menunjukkannya dan laboratorium-laboratorium AI terkemuka telah mengakuinya.
Sebagaimana disebutkan dalam Prinsip-prinsip Asilomar AI yang didukung secara luas, AI Lanjutan dapat mewakili perubahan besar dalam sejarah kehidupan di Bumi dan harus direncanakan dan dikelola dengan perawatan dan sumber daya yang sepadan.
”Sayangnya, tingkat perencanaan dan manajemen ini tidak terjadi sekalipun pada beberapa bulan terakhir laboratorium-laboratorium AI berlomba-lomba di luar kendali mengembangkan dan menerapkan pikiran digital yang semakin kuat yang tidak dapat dipahami oleh siapa pun, bahkan termasuk pembuatnya sendiri tidak dapat memahami, memprediksi, atau mengontrolnya secara andal,” sebut petisi.
Sistem AI kontemporer sekarang, masih mengutip petisi, menjadi mesin yang berdaya saing seperti manusia dalam menjalankan tugas-tugas umum. Sehubungan dengan itu, petisi melemparkan sejumlah pertanyaan kritis.
”Haruskah kita membiarkan mesin-mesin membanjiri saluran informasi kita dengan propaganda dan kebohongan? Haruskah kita mengotomatiskan semua pekerjaan, termasuk pekerjaan-pekerjaan yang memuaskan? Haruskah kita mengembangkan pikiran non-manusia yang pada akhirnya mungkin melebihi jumlahnya, lebih pintar, membuat kita usang, dan menggantikan kita” tanya petisi.
Jika jeda seperti itu tidak dapat diberlakukan dengan cepat, pemerintah harus turun tangan dan melembagakan moratorium.
”Haruskah kita mengambil risiko kehilangan kendali atas peradaban kita? Keputusan-keputusan ini tidak boleh didelegasikan kepada pemimpin-pemimpin teknologi yang tak melalui mekanisme pemilihan,” tanya petisi lagi.
Oleh karena itu, para pakar dan eksekutif teknologi penandatangan petisi mengimbau semua laboratorium AI untuk segera menghentikan sementara pelatihan sistem AI yang lebih kuat dari GPT-4. Periodenya setidaknya selama 6 bulan ke depan.
”Jeda ini harus bersifat publik dan dapat diverifikasi, serta menyertakan semua aktor utama. Jika jeda seperti itu tidak dapat diberlakukan dengan cepat, pemerintah harus turun tangan dan melembagakan moratorium,” sebut petisi. (AP/AFP/REUTERS/LAS)