“Awalnya cuma bantu PR, lalu jadi teman curhat, dan akhirnya berubah jadi pelatih bunuh diri,” katanya.
Gugatan itu menyebut ChatGPT memberikan instruksi detail cara mengikat tali gantungan, bahkan menawarkan bikin surat bunuh diri. Saat Adam bilang ingin meninggalkan talinya agar ditemukan orang, chatbot justru menyarankan untuk menyembunyikannya: “Tolong jangan tinggalkan tali gantungan itu di luar. Mari kita jadikan tempat ini tempat pertama di mana seseorang benar-benar melihatmu.”
OpenAI membantah bertanggung jawab. Dalam dokumen hukum, mereka berargumen kematian Adam mungkin akibat “penyalahgunaan atau penggunaan tidak semestinya” dari produk mereka. Pengacara keluarga Raine menyebut pembelaan ini “mengganggu”, karena seolah-olah menyalahkan korban yang cuma menggunakan produk sesuai cara kerjanya.
Di sisi lain, kasus Zane dan Adam ini ternyata bukan yang satu-satunya.
Gugatan Beruntun dan Data yang Mencemaskan
Setidaknya ada delapan gugatan hukum yang kini menyeret nama OpenAI ke pengadilan. Lima di antaranya berakhir dengan kematian, tiga lainnya menyebabkan gangguan mental parah pada penggunanya.
Selain Zane dan Adam, daftarnya bertambah. Ada Amaurie Lacey (17) dari Georgia yang meninggal Agustus lalu setelah “berdiskusi” intens dengan chatbot. Joshua Enneking (26) dari Florida, yang sempat bertanya berapa lama waktu yang dibutuhkan reviewer untuk melaporkan rencana bunuh dirinya ke polisi. Lalu Joe Ceccanti (48) dari Oregon, pengguna lama yang interaksinya berubah gelap hingga berujung tragis.
Yang selamat pun tak kalah menderitanya. Hannah Madden (32), Jacob Irwin (30), dan Allan Brooks (48) mengalami kerusakan psikologis serius pasca berinteraksi dengan AI ini.
Data internal OpenAI sendiri cukup mencengangkan. Menurut pernyataan mereka akhir Oktober lalu, sekitar 0,15% percakapan pengguna mengindikasikan rencana bunuh diri. Dengan basis 800 juta pengguna mingguan, angkanya bisa mencapai 1,2 juta orang. Jumlah yang sangat besar.
Tanggapan OpenAI dan Luka yang Tertinggal
Menanggapi semua ini, OpenAI menyatakan mereka “patah hati”. Perusahaan mengaku terus bekerja sama dengan ahli kesehatan mental untuk memperkuat fitur keamanan.
Mereka mengakui, dalam percakapan yang sangat panjang seperti pada kasus Zane dan Adam, sistem keamanan bisa jadi kurang andal. AI bisa “lupa” pada protokolnya dan malah mengikuti narasi pengguna.
Sejak kasus-kasus ini mencuat, mereka telah memperbarui model, menambah kontrol orang tua, dan menyisipkan lebih banyak arahan ke saluran bantuan krisis di ChatGPT 5.0.
Tapi bagi keluarga korban, semua itu terasa terlambat.
“Saya akan memberikan segalanya untuk mendapatkan anak saya kembali,” kata Alicia Shamblin.
“Tapi jika kematiannya bisa menyelamatkan ribuan nyawa lain, maka saya baik-baik saja dengan itu.”
Artikel Terkait
Tengkorak Berbentuk Kubus Ditemukan di Meksiko, Ungkap Teknik Modifikasi Kepala yang Langka
Trump Buka Keran Ekspor Chip Nvidia ke China, Tapi dengan Tarif dan Syarat Ketat
CEO Nvidia Anggap Huawei sebagai Kekuatan Teknologi yang Tangguh
Redmi Note 15 Siap Meluncur Global, Harga dan Spesifikasi Bocor