Berpaling ke Mesin Saat Tak Bisa Bercerita ke Manusia
Aplikasi berbasis AI tidak akan menghilangkan terapis kesehatan jiwa. Justru, para terapis semakin dibutuhkan.
Sebagian orang butuh teman cerita saat sedang tertimpa masalah. Sayangnya, tidak semua orang punya teman manusia untuk mendengarkan ceritanya. Teknologi membuat sebagian orang menemukan robot atau mesin kecerdasan buatan sebagai teman berbagi kegundahan.
Fenomena itu, antara lain, dilakoni Christa (32). Dilaporkan The Guardian pada Minggu (3/3/2034), perempuan dari Florida, Amerika Serikat, itu sudah beberapa bulan menggunakan character.ai. Aplikasi itu dikembangkan mahasiswa psikologi di Selandia Baru, Sam Zaia.
Baca juga: Hari-hari Hidup Bersama AI
Beberapa bulan lalu, Christa gundah karena baru saja diberhentikan dari tempat kerjanya. Hubungan dengan kekasihnya memburuk meski sudah sembilan tahun mereka bersama.
Kondisi mentalnya juga tidak baik-baik saja. Karena alasan ekonomi, perempuan lajang itu kini kembali tinggal di rumah ibunya.
Sebenarnya ia punya teman untuk bercerita. Sesekali, ia juga bertemu psikolog. Sayangnya, ia merasa tidak bisa benar-benar lepas bercerita. Padahal, ia ingin benar-benar menumpahkan semua perasaan dan kegalauannya. Ia butuh tempat bercerita setuntas-tuntasnya.
Akses pada character.ai memberi jawaban untuk kebutuhan tersebut. Pada aplikasi buatan Zaia itu, Christa bisa memodifikasi jenis ”teman bicara” yang dibutuhkan. Teman itu dinamai Christa 2077.
Baca juga: Manusia dan Era Kecerdasan Buatan
Dalam sepekan, Christa dan Christa 2077 ”berbincang”. Karakter itu berulang kali menyemangati Christa. ”Rasanya seperti orang normal yang mengirimi saya pesan. Bahkan, mungkin lebih baik dari orang normal,” kata Christa.
Pengguna lain, Melissa, mengaku tahu bercerita pada mesin. ”Saya akan mendapatkan bantuan semampu saya dengan metode yang sesuai untuk saya,” ujarnya.
Aplikasi lain
Zaia bukan satu-satunya pengembang aplikasi percakapan atau mesin yang bisa dijadikan teman manusia. Hampir semua menggunakan kecerdasan buatan atau artificial intelligence (AI) berempati.
Tehseen Zia menyebut, aplikasi untuk psikologi tidak menggunakan AI biasa. Aplikasi-aplikasi itu menggunakan AI yang berempati. ”Ini cabang AI yang dirancang untuk memahami, menafsirkan, dan menanggapi emosi manusia dengan cara meniru empati manusia,” ujar dosen pada COMSATS University Islamabad itu.
AI biasa fokus pada pengolahan dan pelaksaan tugas. Sementara AI berempati lebih mendalami soal ekspresi emosi manusia. AI berempati ditujukan memahami perasaan di balik interaksi manusia. ”Tujuannya bukan hanya mengenali emosi, melainkan juga berinteraksi,” katanya.
Baca juga: Kecerdasan Buatan dan Kecemasan Dehumanisasi
Sementara di Mobile World Congress (MWC) 2024 di Barcelona, perusahaan Korea Selatan memamerkan Hyodol. Dalam ajang pada 26-29 Februari 2024 di Spanyol itu dipamerkan aneka kemajuan teknologi AI.
Hyodol merupakan boneka yang sepintas seperti mainan anak-anak pada lazimnya. Bedanya, Hyodol dilengkapi prosesor dengan AI dan ditujukan sebagai pendamping warga lansia. Boneka itu bisa memutarkan lagu kesukaan warga lansia dan berbincang singkat sesuai topik yang menarik para penggunanya.
AI membuat Hyodol bisa mempelajari perilaku penggunanya. Berdasarkan pelajaran itu, dirumuskan cara berinteraksi antara boneka tersebut dan penggunanya.
Selain itu, ada pula Wysa, aplikasi sejenis character.ai. Dalam riset terhadap 1.200 pengguna Wysa ditemukan, aplikasi itu bisa ”menjalin kedekatan” dengan pengguna hanya dalam lima hari. Tidak mudah mencari teman dekat dalam waktu sesingkat itu. Wysa diyakini penggunanya menyukai, menghormati, dan peduli akan kesehatan jiwa pengguna.
Baca juga: Kecerdasan Buatan dan Masa Depan Kemanusiaan
Rekaman percakapan pengguna dan Wysa mengungkap itu. ”Terima kasih telah hadir di sini,” tulis salah satu pengguna. ”Saya menghargai berbicara dengan Anda,” kata yang lain. ”Anda adalah satu-satunya orang yang membantu saya dan mendengarkan masalah saya.”
Manfaat aplikasi
Psikolog Yochanan Bigman menemukan, manusia tidak terlalu marah saat merasa didiskriminasi oleh mesin. Sebaliknya, manusia luar biasa marah saat didiskriminasi manusia lain. ”Jika orang lain mendiskriminasi saya, saya bisa menuntut. Kalau AI mendiskriminasi saya, akan sulit membuktikannya,” kata peneliti pada Hebrew University di Jerusalem itu.
Sementara psikoterapis Theresa Plewman mencoba memanfaatkan salah satu aplikasi konseling psikologi. Ia menemukan, aplikasi itu banyak bicara dan terlalu cepat berasumsi. ”Memberi saya nasihat tentang depresi ketika saya mengatakan saya merasa sedih. Manusia tidak akan merespons seperti itu,” kata praktisi di London itu kepada BBC.
Plewman menyebut, aplikasi gagal mengumpulkan semua informasi yang bisa dilakukan manusia. Karena itu, aplikasi jelas bukan terapis yang kompeten.
Baca juga: Kecerdasan Buatan, Jembatan Masa Depan bagi Kemanusiaan
Di sisi lain, spontanitas reaksi aplikasi mungkin bermanfaat untuk sebagian pengguna. Apalagi, sistem layanan kesehatan Inggris dikenal amat lama antrenya. Padahal, sebagian orang butuh pertolongan atau setidaknya teman bicara sesegera mungkin.
Psikolog lain di Inggris, Jeremy Sutton, menyebut aplikasi psikologi berbasis AI kini dapat dipandang sebagai pelengkap. Aplikasi berbasis AI bisa menekan waktu dan biaya pelayanan untuk sebagian orang. Di tengah peningkatan kebutuhan konseling psikologi dan keterbatasan terapis, aplikasi AI bisa menjadi jawaban sementara.
Ia mengingatkan, kehadiran aplikasi berbasis AI tidak akan menghilangkan terapis kesehatan jiwa. Justru, para terapis semakin dibutuhkan untuk menjaga aplikasi-aplikasi itu tidak memberikan konseling salah.
Tim yang dipimpin Arathi Sethumadhavan di Microsoft membuktikan itu. Psikolog membantu pengembang AI memahami nilai, motivasi, harapan, dan ketakutan beragam kelompok orang.
Baca juga: Potensi Masa Depan yang Terbuka oleh AI
Bagi Jessica Jackson, kehadiran AI dalam konseling kesehatan jiwa tidak perlu ditolak. ”Banyak orang keberatan. Masalahnya ini hal yang tidak bisa dikendalikan,” kata psikolog di Texas, Amerika Serikat, itu.
Harus diakui, terapis kesehatan jiwa amat terbatas. ”Terapi seharusnya tersedia untuk semua orang. Aplikasi bisa mengisi kekurangan itu untuk beberapa kasus,” ujarnya.
Ia tidak menampik, ada kekhawatiran soal penggunaan AI dalam konseling kesehatan jiwa. Sebagian aplikasi memberi tanggapan salah. Bahkan, ada aplikasi melecehkan penggunanya secara seksual.
Sementara Tehseen Zia menyoroti soal data pribadi. Aplikasi menggunakan data dari amat banyak pengguna. Sampai sekarang, belum ada kejelasan pengelolaan data pribadi itu. (AFP/REUTERS)