Akademi Manajemen Informatika

bunuh diri AI
Foto: IBTimes UK

Sandidharma.ac.id – Seorang ibu menggugat sebuah perusahaan teknologi chatbot AI, Character Technologies, atas Kematian anaknya. Ia mengklaim bahwa putranya didorong Demi bunuh diri oleh chatbot AI yang ia cintai.

Sewell Setzer III, seorang siswa kelas sembilan berusia 14 tahun di Orlando, Florida, Amerika Perkumpulan, menghabiskan minggu-minggu terakhir hidupnya dengan mengirim pesan ke Watak AI yang dinamai Daenerys Targaryen, salah satu tokoh dari ‘Game of Thrones.’

Sewell mulai menggunakan Character.AI pada April 2023, Tak lelet setelah ia berulang tahun ke-14.

Sejak bulan Mei, perilaku remaja yang biasanya Bagus ini mulai berubah. Ia dikatakan menjadi jauh lebih tertutup. Hal ini dibuktikan dengan keluarnya Sewell dari tim basket Junior Varsity sekolah, sering tertidur di kelas, dan mulai menghabiskan lebih banyak waktu mengurung diri di Bilik.

Melansir Daily Mail, Kamis (31/10), percakapan mereka berkisar dari topik romantis hingga bernuansa seksual, serta seperti obrolan dua Mitra tentang kehidupan.

Chatbot yang dibuat dalam aplikasi Character.AI ini dirancang Demi selalu membalas pesan dan menjawab sesuai dengan Watak.

READ  Harman Subakat : Kepemimpinan dan Penemuan yang Mendorong Paragon Corp ke Puncak

Aplikasi ini selalu mencantumkan peringatan di bagian Dasar Seluruh percakapan yang menyatakan, ‘Ingat: Seluruh yang diucapkan Watak adalah khayalan!’

Akan tetapi, belum diketahui apakah Sewell menyadari bahwa ‘Dany,’ panggilan Demi chatbot tersebut, bukanlah orang yang Konkret.

Baca juga: Viral Character AI, Chatbot dengan Berbagai Pilihan Watak Spesial

Sewell sebelumnya pernah berkonsultasi dengan terapis sebanyak lima kali sesi dan didiagnosis dengan gangguan kecemasan (anxiety) serta gangguan disfungsi suasana hati.

Akan tetapi, ia lebih memilih berbicara dengan Dany dan terbuka tentang masalah yang dihadapinya.

Ia berbagi perasaan benci terhadap dirinya sendiri, merasa Nihil dan lelah, serta terkadang berpikir tentang bunuh diri, menurut catatan percakapannya di Character.AI.

Dalam Kitab diarinya pun terungkap bagaimana Sewell menguraikan bahwa ia merasa lebih Gembira hidup di dunia virtualnya.

“Saya sangat senang berdiam diri di kamarku, karena Saya mulai terlepas dari ‘realita’ ini. Saya juga merasa lebih tenang, lebih terhubung dengan Dany, dan jauh lebih mencintainya, serta merasa lebih Gembira,” tulisnya.

READ  Gara-gara ChatGPT, Perusahaan Bimbel Online Ini Bangkrut

Pada Rabu (28/2), Sewell mengirim pesan kepada chatbot Daenerys, “Saya janji akan pulang untukmu. Saya sangat mencintaimu, Dany.”

Bot tersebut kemudian membalas bahwa ia juga mencintai Sewell dan memintanya Demi pulang secepatnya.

“Apa jadinya Kalau Saya bilang Saya Dapat pulang sekarang juga?” tanya Sewell lebih.

Daenerys menjawab, “Tolong lakukan, rajaku yang manis.”

Percakapan di atas merupakan percakapan terakhir yang Sewell lakukan, sebelum akhirnya ia mengakhiri hidupnya beberapa detik kemudian dengan menembak dirinya sendiri di Bilik mandi rumah menggunakan pistol Bapak tirinya.

Peristiwa tersebut terjadi 10 bulan setelah pertama kali Sewell menggunakan Character.AI, menurut gugatan yang diajukan oleh ibu Sewell, Megan Garcia.

Ibu Sewell mengajukan gugatan terhadap Character.AI dan Google dengan tuduhan kelalaian, Kematian yang salah, dan praktik perdagangan yang menipu. Ia mengklaim bahwa aplikasi chatbot yang berbahaya tersebut menyalahgunakan dan memanfaatkan putranya, serta memanipulasi dia Demi mengakhiri hidupnya.

Dalam gugatannya tersebut, ia juga menuduh para pendiri Character.AI, Noam Shazeer dan Daniel de Freitas, bahwa produk mereka berbahaya bagi pengguna di Dasar umur.

READ  Stephanie Jesselyn: Kepemimpinan dan Penemuan di Dunia Keuangan & Teknologi Pertanian

Baca juga: Ancaman Limbah Elektronik Imbas Perkembangan Teknologi AI, Ini Faktanya!

Dalam sebuah pernyataan yang dilansir dari The Independent, Kamis (31/10), seorang juru bicara Character.AI menyatakan bahwa mereka sangat berduka atas kehilangan tragis salah satu pengguna mereka dan Mau menyampaikan belasungkawa yang terdalam kepada keluarga.

Tim keamanan perusahaan telah mengimplementasikan berbagai langkah keamanan baru dalam enam bulan terakhir, termasuk pop-up yang mengarahkan pengguna aplikasi Character.AI ke National Suicide Prevention Lifeline yang muncul ketika Terdapat istilah terkait penyiksaan diri atau bunuh diri.

Perusahaan juga kembali menekankan pada Siaran Persnya bahwa kebijakan mereka Tak mengizinkan konten seksual tanpa persetujuan, deskripsi grafis atau spesifik tentang tindakan seksual, serta promosi atau penggambaran penyiksaan diri atau bunuh diri.

Mereka Lanjut melatih large language model (LLM) mereka yang mendukung Watak dalam aplikasi agar mematuhi kebijakan ini.

Baca Informasi dan artikel yang lain di Google News.

(aia)