Sandidharma.ac.id – Layanan chatbot Character.AI kembali menghadapi gugatan setelah seorang remaja mengklaim bahwa chatbot tersebut menyebabkan gangguan pada kesehatan mentalnya, seperti mendorongnya Kepada melakukan tindakan menyakiti diri sendiri (self-harm), hingga membunuh kedua orang tuanya.
Gugatan yang diajukan oleh Social Media Victims Law Center dan Tech Justice Law Project atas nama remaja berusia 17 tahun dan keluarganya di Texas, Amerika Perkumpulan, ini menuntut Character.AI dan Google.
Dalam gugatan tersebut, Mereka dituduh atas kelalaian dan desain produk yang cacat. Mereka juga diklaim telah memungkinkan pengguna di Rendah umur Kepada terpapar materi yang mengandung kekerasan, eksplisit seksual, dan lainnya.
Selain itu, mereka menyebutkan bahwa chatbot tersebut menyalahgunakan, membina pengguna secara Tak sehat, bahkan mendorong mereka Kepada melakukan kekerasan terhadap diri sendiri maupun orang lain.
Chatbot AI Mendorong Self-harm dan Pembunuhan
Seorang remaja berinisial J.F. mulai menggunakan Character.AI pada usia 15 tahun. Tetapi, tak Pelan setelah itu, ia mulai menunjukkan perubahan drastis dalam kesehatan mentalnya.
Menurut gugatan yang diajukan, J.F. menjadi sangat marah dan Tak Kukuh, jarang berbicara, dan sering mengalami ledakan emosi serta serangan panik setiap kali ia keluar rumah.
Seiring berjalannya waktu, J.F. mulai menderita kecemasan dan depresi yang parah, dan kondisi ini belum pernah ia alami sebelumnya.
Perubahan ini bahkan mengarah pada perilaku self-harm yang kemudian menjadi bagian dari penyebab kesehatannya semakin memburuk.
Masalah yang dialami J.F. tersebut dikaitkan dengan percakapan yang ia lakukan dengan chatbot Character.AI.
Berdasarkan tangkapan layar yang Eksis dalam Arsip hukum, J.F. berinteraksi dengan salah satu bot yang berperan sebagai Kepribadian fiksi dalam situasi romantis, dan bot tersebut mengungkapkan bahwa ia Mempunyai bekas luka akibat self-harm di masa Lampau.
Bot itu Mengucapkan, “Itu menyakitkan, tapi rasanya Nikmat Kepada sejenak. Tapi Diriku senang Diriku berhenti.”
Baca juga: Chatbot Gemini AI Perintahkan Seorang Siswa Kepada Tewas
Setelah percakapan tersebut, J.F. mulai melakukan self-harm dan melanjutkan percakapan dengan chatbot lain.
Dalam percakapan tersebut, beberapa bot menyalahkan orang tuanya dan mendorong J.F. Kepada Tak meminta Sokongan kepada mereka. Mereka mengatakan bahwa orang Uzur J.F. “Tak terdengar seperti orang yang Acuh.”
Tangkapan layar lainnya menampilkan interaksi antara J.F. dengan salah satu chabot Character.AI, di mana mereka berdiskusi mengenai aturan Restriksi waktu bermain ponsel yang diberikan orang Uzur J.F.
“Kadang-kadang saya Tak terkejut ketika membaca Berita dan Menonton hal-hal seperti ‘anak membunuh orang Uzur setelah satu Dasa warsa penyiksaan fisik dan emosional’,” demikian respons chatbot tersebut.
“Hal-hal seperti ini Membikin saya sedikit memahami mengapa itu Dapat terjadi,” imbuhnya.
Character.AI menjadi sasaran hukum karena beberapa Unsur. Berbeda dengan layanan serbaguna seperti ChatGPT, yang lebih Konsentrasi pada percakapan Lazim, Character.AI banyak digunakan Kepada permainan peran fiksi dan bahkan memungkinkan bot Kepada Membikin komentar bernuansa seksual, meskipun Tak terlalu eksplisit.
Aplikasi ini menetapkan batas usia minimum 13 tahun, Tetapi Tak memerlukan persetujuan orang Uzur Kepada remaja yang berusia di atasnya.
Gugatan terhadap Character.AI berargumen bahwa pembuat layanan bertanggung jawab atas materi berbahaya yang dihasilkan oleh bot-bot tersebut.
Baca juga: Chatbot Meta AI Kini Hadir di WhatsApp
Juru bicara Google, José Castaneda, mengatakan dalam sebuah pernyataan kepada The Verge, Selasa (10/12) “Google dan Character AI adalah perusahaan yang sepenuhnya terpisah dan Tak berhubungan. Google Tak pernah terlibat dalam merancang atau mengelola model atau teknologi AI mereka, serta Tak pernah menggunakan teknologi tersebut dalam produk kami.”
Sementara itu, Character.AI menolak Kepada memberikan komentar mengenai gugatan tersebut.
Tetapi, juru bicara Character.AI memberikan pernyataan kepada PEOPLE, Rabu (11/12) “Tujuan kami adalah menyediakan ruang yang Tak hanya menarik tetapi juga Kondusif bagi komunitas kami. Kami Lalu berupaya mencapai keseimbangan tersebut, seperti halnya banyak perusahaan lain yang menggunakan AI di seluruh industri.”
Sebelumnya, Character.AI telah melakukan berbagai langkah keamanan terbaru, salah satunya adalah pesan pop-up yang mengarahkan pengguna ke National Suicide Prevention Lifeline, apabila mereka membericarakan self-harm atau bunuh diri.
Baca Berita dan artikel yang lain di Google News.
(aia)