Taylor Swift dan AI yang Tak Selamanya Bisa Dipercaya
Taylor Swift dan jutaan orang menjadi korban dari bahaya kesalahan dan penyalahgunaan AI.
Oleh
IRENE SARWINDANINGRUM
·4 menit baca
Kecerdasan buatan adalah kotak Pandora peradaban digital. Selain harapan besar, teknologi itu bisa membawa keburukan yang tidak pernah terbayangkan.
Penyalahgunaan kecerdasan buatan (artificial intelligence/AI) antara lain terlihat pada rekayasa foto Taylor Swift. Dilaporkan Associated Press pada Sabtu (27/1/2024), foto rekayasa itu telah disebarkan jutaan kali.
Anggota DPR Amerika Serikat, Yvette D Clarke dan Joe Morelle, menyebut penyalahgunaan itu bukti rekayasa citra dengan AI harus diatur. ”Gambarnya mungkin palsu, walakin dampaknya amat nyata,” kata Morelle.
Clarke menyebut, rekayasa gambar dengan AI paling sering menyasar perempuan. ”Hal yang terjadi pada Taylor Swift telah sering dialami perempuan lain,” ujarnya.
Nyaris bersamaan dengan kasus Swift, Anthropic mengungkap temuan lain yang menggelisahkan. Lembaga riset AI dari San Francisco itu menemukan sistem AI yang menolak dimatikan. Sistem itu mengandung program jahat.
”Temuan pokok kami adalah jika sistem AI menyimpang, maka akan sangat sulit menghilangkan penyimpangan itu dengan teknik sekarang. Hal ini penting jika kita mempertimbangkan sistem AI menyimpang di masa depan,” kata anggota periset di Anthropic, Evan Hubinger.
Gambarnya mungkin palsu, walakin dampaknya amat nyata.
Sementara Badan Intelijen Nasional (NIS) Korea Selatan menemukan penggunaan AI dalam proses serangan siber. NIS menyebut, Korea Utara menggunakan AI untuk mencari sasaran serangan. AI juga dipakai Pyongyang untuk mencari teknologi yang dapat dipakai dalam serangan siber.
Peringatan bahaya
Temuan NIS selaras dengan peringatan Jude Sunderbruch. Direktur Eksekutif Pusat Kejahatan Siber pada Departemen Pertahanan AS itu mengatakan, konflik di antara sistem yang dikembangkan AI akan terjadi dalam waktu dekat. Ia merujuk pada penggunaan AI untuk melancarkan dan menangkis serangan siber.
Selain dia, sudah banyak pihak mengeluarkan peringatan soal bahaya AI. CEO OpenAI Sam Altman juga tidak menampik ada kecemasan pada AI. ”Jika teknologi AI salah, maka bisa jadi sangat buruk,” kata pemimpin lembaga yang menghasilkan ChatGPT itu.
Dampak kesalahan itu tidak hanya dialami tokoh seperti Swift. Di India, ribuan orang miskin tak dapat menerima program bantuan sosial dari pemerintah. Sebab, algoritma AI salah mengidentifikasi mereka.
Pengupas bawang di Hyderabab, Bismillah Bee (67), salah satu korban kesalahan itu. Dilaporkan Al Jazeera, AI yang dikembangkan Pemerintah Negara Bagian Telenggana, Samagra Vedika, salah mengidentifikasi mendiang Syed Ali. Menurut AI, suami Bee bernama Syed Hyder Ali dan punya mobil.
Padahal, Syed Ali suami Bee adalah penarik becak dan tidak punya kendaraan. Salah identifikasi membuat keluarga Bee dianggap tidak layak menerima bantuan sosial. Padahal, Bee dan keluarganya tinggal di rumah kecil dalam gang sempit di permukiman kumuh. Sampai sekarang, kesalahan itu tidak diperbaiki.
Sementara Duli Chand (102) di Haryana kehilangan tunjangan pensiun. Sebab, AI menyimpulkan dia sudah meninggal sehingga uang pensiunnya dihentikan. Tidak diketahui mengapa AI bisa menyimpulkan demikian.
Chand tidak sendirian. Dengan menggunaan AI, Pemerintah Haryana menghapus data 4.050 orang dari daftar penerima tunjangan pensiun. Padahal, ribuan orang itu masih ada dan berhak menerima tunjangan.
Pada kasus Ali dan Chand, pemerintah setempat menolak upaya banding. Pegawai pemerintah lebih percaya pada AI yang terbukti salah. Petugas menolak percaya fakta yang disodorkan Bee dan Chand.
Di Eropa, AI membuat kesalahan konyol. Hal itu terjadi pada perusahaan pengiriman barang DPD yang memakai AI sebagai mesin penjawab otomatis.
Jika sistem AI menyimpang, maka akan sangat sulit menghilangkan penyimpangan itu dengan teknik sekarang. Hal ini penting jika kita mempertimbangkan sistem AI menyimpang di masa depan.
Dalam percakapan dengan salah satu pelanggan, Ashley Beauchamp (30), mesin itu malah menyampaikan hal-hal buruk soal DPD. ”Saya chatbot tidak berguna yang tidak dapat membantu Anda,” tulis mesin itu seperti dilaporkan The Guardian, Sabtu (20/1/2024).
Selepas kejadian itu, DPD menghentikan penggunaan mesin penjawab otomatis. Sebab, ada kesalahan tidak disengaja dalam sistem mesin berbasis AI.
Semua itu terjadi saat AI semakin diandalkan dalam berbagai aspek kehidupan. Bahkan, seperti dilakukan pada pegawai pemerintah di India, AI lebih dipercaya dibandingkan dengan manusia.
Pilihan petugas di India itu membuat peringatan Yuval Noah Harari relevan. Dalam buku 21 Lesson for the 21st Century, ia menyarankan agar manusia tidak hanya berinvestasi mengembangkan AI. Tidak kalah penting berinvestasi pada kesadaran nurani manusia. Sebab, selain kecerdasan buatan, ada kebodohan alami.