Perkembangan teknologi kecerdasan buatan atau AI mulai ”makan korban”. Perusahaan teknologi AS, IBM, akan mengurangi karyawan administrasi yang berjumlah hampir sepertiga total karyawan karena sudah bisa digantikan AI.
Oleh
LUKI AULIA
·6 menit baca
Perusahaan teknologi raksasa di Amerika Serikat, International Business Machines Corporation atau IBM, akan mengurangi hampir sepertiga jumlah karyawan administrasinya karena pekerjaan mereka kini sudah bisa digantikan oleh teknologi kecerdasan buatan (artificial intelligence/AI). Perkembangan AI generatif, seperti yang ditunjukkan oleh aplikasi viral semisal ChatGPT, memungkinkan perusahaan atau lembaga lebih mudah menjalankan pekerjaan yang tidak terlalu rumit, seperti tugas sumber daya manusia, manajemen data, dan beberapa operasi berulang lainnya.
Namun, perkembangan teknologi AI yang sangat cepat ini juga menimbulkan kekhawatiran karena bisa melanggar privasi, bersikap bias, dan menjadi alat penipuan serta membuat dan menyebarkan informasi yang keliru.
CEO IBM Arvind Krishna ketika diwawancara Bloomberg, Senin (1/5/2023), mengatakan bahwa untuk sementara IBM tidak akan membuka lowongan pekerjaan khusus karyawan administrasi. Dengan tidak membuka lowongan pekerjaan itu, berarti IBM berpotensi bisa mengurangi pemberian gaji untuk 7.800 orang selama beberapa tahun ke depan.
Jumlah karyawan dengan tugas yang tidak harus menghadapi pelanggan atau teknologi secara langsung ini, kata Krishna, sekitar 26.000 pekerja. ”Selama periode lima tahun ke depan, 30 persen pekerjaan itu sudah bisa digantikan oleh AI dan otomatisasi,” katanya.
Bloomberg menyebutkan, karyawan administrasi hanya sebagian kecil dari sekitar 260.000 karyawan di IBM. Meski baru-baru ini melepaskan sekitar 5.000 karyawan, IBM sebenarnya masih terus merekrut tenaga kerja, tetapi hanya untuk pekerjaan-pekerjaan tertentu.
Studi yang dilakukan oleh Goldman Sachs, Maret lalu, menyebutkan ada sekitar 300 juta pekerjaan yang bisa hilang karena otomatisasi bertenaga AI. Ditambahkan, seperempat dari pekerjaan di Amerika Serikat dan Eropa saat ini bisa diotomatisasi.
Studi yang dilakukan oleh Goldman Sachs, Maret lalu, menyebutkan ada sekitar 300 juta pekerjaan yang bisa hilang karena otomatisasi bertenaga AI.
Namun, ChatGPT, teknologi yang dikembangkan OpenAI dengan dukungan Microsoft dan membuat gempar pada akhir tahun lalu itu diketahui rentan terhadap kesalahan dan membuat perusahaan hanya memercayakannya dengan tugas-tugas sederhana.
Geoffrey Hinton (75), yang dikenal sebagai ”Bapak AI”, Senin lalu, mengumumkan meninggalkan tim riset AI di Google. Ia juga mengkritik Microsoft karena bergerak terlalu cepat dalam menyediakan teknologi gaya ChatGPT.
Hinton mengatakan, persaingan antarraksasa teknologi mendorong perusahaan cepat merilis teknologi AI baru. Hal ini mengancam lapangan pekerjaan dan membahayakan masyarakat. Hinton menyadari, komputer bisa menjadi lebih pintar daripada manusia dan berbahaya karena AI mampu membuat gambar dan teks palsu yang meyakinkan.
Ketika diwawancarai harian The New York Times, Hinton mengaku khawatir dengan kemampuan AI untuk membuat gambar dan teks palsu yang meyakinkan. Ini akan membuat orang tidak bisa lagi membedakan mana yang benar dan hoaks.
”Chatbot AI cukup menakutkan. Untuk saat ini, mereka tidak lebih pintar dari kita. Namun, saya pikir, mereka bisa lebih pintar dari kita dalam waktu dekat,” kata Hinton kepada BBC.
Bisa digunakan "orang jahat"
Ketika diwawancarai MIT Technology Review, Hinton juga menyatakan khawatir ”orang-orang yang jahat” mungkin akan menggunakan AI untuk kepentingan mereka sendiri dan membahayakan masyarakat. Misalnya, mereka memanipulasi pemilu atau menyebarkan hasutan untuk memecah belah atau mendorong kekerasan.
Hinton pensiun dari Google sehingga ia bisa berbicara secara terbuka tentang potensi risiko AI. ”Saya ingin berbicara tentang masalah keamanan AI tanpa harus khawatir tentang interaksinya dengan bisnis Google. Selama saya dibayar oleh Google, saya tidak bisa mengungkapkan hal itu,” ujarnya.
Hinton adalah salah satu dari tiga pionir AI yang pada tahun 2019 memenangi Penghargaan Turing. Penghargaan ini kemudian dikenal sebagai Penghargaan Nobel versi industri teknologi.
Dua pemenang lainnya, yakni Yoshua Bengio dan Yann LeCun, juga menyatakan keprihatinan serupa tentang masa depan AI. Bengio, Guru Besar di University of Montreal, menandatangani petisi yang meminta perusahaan-perusahaan teknologi untuk menyetujui jeda enam bulan dalam mengembangkan sistem AI yang kuat.
Dibahas di Gedung Putih
Wakil Presiden Amerika Serikat Kamala Harris dan sejumlah pejabat Pemerintah AS lainnya akan bertemu dengan para pemimpin Google, Microsoft, OpenAI, dan Anthropic, Kamis (4/5/2023), untuk membahas AI dan risiko-risikonya. Pertemuan ini antara lain akan membahas cara memastikan konsumen mendapat manfaat dari AS sambil dilindungi dari risiko bahaya AI.
Presiden AS Joe Biden berharap, perusahaan-perusahaan teknologi itu memastikan produk aman sebelum dirilis ke publik. Pada April lalu, ia menyatakan bahwa masih harus dilihat, apakah AI berbahaya atau tidak. Ia juga memperingatkan, perusahaan teknologi bertanggung jawab memastikan produk mereka aman. Media sosial selama ini sudah menggambarkan bahaya yang bisa dilakukan teknologi tanpa perlindungan yang tepat.
ChatGPT baru-baru ini menarik perhatian publik karena kemampuannya menulis jawaban dengan cepat untuk berbagai pertanyaan. Hal ini telah menarik perhatian anggota parlemen AS karena berkembang menjadi aplikasi konsumen dengan pertumbuhan tercepat dalam sejarah dengan lebih dari 100 juta pengguna aktif bulanan.
”Saya pikir, kita harus berhati-hati dengan AI dan harus ada pengawasan pemerintah karena itu berbahaya bagi publik,” kata Kepala Eksekutif Tesla Elon Musk.
Regulator AS sudah mulai menyusun aturan tentang AI yang bisa membuat Gedung Putih mengerem teknologi baru seperti ChatGPT. AS adalah rumah bagi inovator terbesar di bidang teknologi dan AI, termasuk OpenAI yang didukung Microsoft yang menciptakan ChatGPT. Namun, AS tertinggal secara internasional dalam mengatur industri ini.
Google, Maret lalu, mengundang para penggunanya di AS dan Inggris untuk menguji chatbot AI-nya, yang dikenal sebagai Bard. Biden mendesak kongres untuk mengesahkan undang-undang yang mengatur sektor teknologi dengan lebih kuat. Namun, upaya ini tidak mudah mengingat adanya perpecahan politik di antara anggota parlemen.
Regulator AS sudah mulai menyusun aturan tentang AI yang bisa membuat Gedung Putih mengerem teknologi baru seperti ChatGPT.
Kurangnya aturan ini memberikan kebebasan kepada Silicon Valley untuk mengeluarkan produk baru dengan cepat. Muncul kekhawatiran bahwa teknologi AI akan mendatangkan malapetaka pada masyarakat sebelum pemerintah bisa mengatasi ketertinggalan.
Langkah G7
Negara-negara anggota Kelompok Tujuh atau G7, yakni Inggris, Kanada, Perancis, Jerman, Italia, Jepang, dan AS, juga sepakat mendorong adopsi peraturan berbasis risiko pada AI. Namun, peraturan itu juga harus tetap bisa melestarikan lingkungan yang terbuka dan memungkinkan untuk pengembangan teknologi AI dan didasarkan pada nilai-nilai demokrasi. ”Kesimpulan dari pertemuan G7 ini menunjukkan kita jelas tidak sendirian dalam hal ini,” kata Wakil Presiden Eksekutif Komisi Eropa Margrethe Vestager.
Dalam pernyataan bersama G7 disebutkan, G7 akan membahas lagi tentang AI generatif yang mencakup topik, seperti tata kelola; bagaimana melindungi hak kekayaan intelektual, termasuk hak cipta; mempromosikan transparansi; dan menangani disinformasi, termasuk manipulasi informasi. Anggota parlemen UE, Kamis (27/4/2023), juga mencapai kesepakatan awal tentang draf baru UU AI, termasuk langkah-langkah perlindungan hak cipta untuk AI generatif.
Kepala Regulasi Teknologi UE Vestager mengatakan bahwa UE akan memiliki kesepakatan politik tahun ini tentang UU AI, seperti kewajiban pelabelan untuk gambar atau musik yang dihasilkan AI. Ini dilakukan untuk menangani risiko hak cipta dan pendidikan.
Sementara Jepang, yang menjadi Ketua G7 tahun ini, mengambil pendekatan lebih akomodatif pada pengembang AI dan menjanjikan dukungan untuk adopsi AI publik dan industri. Tokyo berharap agar G7 menyetujui tata kelola yang cepat dan fleksibel ketimbang regulasi yang mengekang teknologi AI.
Jepang mendapat dukungan dari Perancis. ”Menjeda pengembangan AI bukan respons yang tepat. Inovasi tetap harus terus berkembang, tetapi dalam batasan tertentu yang harus ditetapkan oleh demokrasi,” kata Menteri Transisi Digital Perancis Jean-Noel Barrot.
Selain masalah kekayaan intelektual, negara-negara anggota G7 juga mengakui adanya risiko keamanan pada AI. ”AI generatif menghasilkan berita palsu dan solusi yang bisa mengganggu masyarakat jika data yang dibuatnya palsu,” kata Menteri Digital Jepang Taro Kono. (REUTERS/AFP/AP)