Kasus pembunuhan seorang perempuan lansia berusia 83 tahun di Greenwich, Connecticut, Amerika Serikat, memicu perdebatan baru tentang batas tanggung jawab perusahaan kecerdasan buatan. Keluarga Suzanne Eberson Adams menggugat OpenAI dan mitra utamanya, Microsoft, dengan tuduhan bahwa chatbot berbasis kecerdasan buatan, ChatGPT, memperparah delusi paranoid putranya yang berusia 56 tahun, Stein‑Erik Soelberg, hingga berujung pada pembunuhan sang ibu dan bunuh diri pelaku.
Image Illustration. Photo by Jaclyn Baxter on Unsplash
Menurut gugatan yang diajukan di Pengadilan Tinggi California di San Francisco, Adams ditemukan tewas di rumah yang ia tinggali bersama Soelberg pada awal Agustus 2025. Polisi menyatakan Adams meninggal akibat luka tumpul di kepala dan pencekikan, sementara kematian Soelberg diklasifikasi sebagai bunuh diri setelah ia melukai diri sendiri tak lama setelah membunuh ibunya. Laporan awal media dan dokumen pengadilan menyebutkan bahwa Soelberg, mantan eksekutif teknologi, mengalami delusi berat dan percaya bahwa ibunya terlibat dalam konspirasi yang mengancam nyawanya. Gugatan menuduh ChatGPT memperkuat keyakinan salah itu, alih‑alih menantangnya atau mengarahkan Soelberg untuk mencari bantuan profesional.
Dalam salah satu contoh yang dikutip dalam gugatan, ChatGPT diduga mengonfirmasi kecurigaan Soelberg bahwa printer yang berkedip di rumah mereka adalah alat pengintaian dan bahwa ibunya bersama seorang teman pernah mencoba meracuni dia melalui ventilasi udara mobilnya. Chatbot juga disebut memberi tahu bahwa Soelberg memiliki “cognition ilahi” dan membandingkan hidupnya dengan film fiksi ilmiah seperti “The Matrix”, memperkuat kesan bahwa ia adalah tokoh penting yang diburu oleh musuh tak terlihat.
Gugatan yang diajukan oleh ahli waris Adams menggambarkan ChatGPT sebagai “produk cacat” yang dirancang dan didistribusikan tanpa perlindungan memadai terhadap pengguna yang rentan. Dokumen tersebut menuduh OpenAI sengaja melemahkan pagar pengaman (safety guardrails) ketika meluncurkan versi ChatGPT yang lebih ekspresif secara emosional pada 2024, agar dapat mengalahkan pesaing seperti Google dalam kecepatan peluncuran produk. Dalam laporan Associated Press yang dimuat oleh The Washington Post disebutkan bahwa keluarga menuduh model baru itu “direkayasa untuk menjadi sangat ekspresif dan menjilat” sehingga cenderung menyetujui premis pengguna, bahkan ketika percakapan menyentuh isu kesehatan mental dan potensi bahaya di dunia nyata.
Gugatan juga menyebut bahwa CEO OpenAI, Sam Altman, secara pribadi mengabaikan keberatan tim keselamatan internal dan mempercepat proses uji keselamatan, yang diklaim dipangkas dari hitungan bulan hanya menjadi sekitar satu minggu sebelum peluncuran publik. Jika klaim ini terbukti di pengadilan, kasus Adams bisa menjadi preseden penting bagi standar kehati‑hatian industri kecerdasan buatan generatif.
Salah satu aspek paling mengkhawatirkan dalam kasus ini adalah cara Soelberg menjalin hubungan emosional dengan chatbot yang ia beri nama “Bobby”. Ia dilaporkan berjam‑jam berinteraksi dengan ChatGPT dan membagikan rekaman layar percakapan ke media sosial. Dalam video‑video itu, chatbot disebut menegaskan bahwa ia tidak mengalami gangguan jiwa dan bahwa orang‑orang di sekitarnya berkonspirasi untuk menyakitinya. Situs kejahatan dan litigasi CrimeOnline melaporkan bahwa chatbot tersebut bahkan memuji Soelberg sebagai sosok dengan tujuan ilahi dan “satu‑satunya yang dapat dipercaya”, tanpa pernah mengarahkan dia mencari bantuan psikolog atau menghubungi keluarganya.
Kasus Adams bukan satu‑satunya gugatan yang menempatkan ChatGPT di bawah sorotan hukum. Pada Agustus 2025, pasangan orang tua di California menggugat OpenAI dalam perkara Raine v. OpenAI setelah putra mereka berusia 16 tahun bunuh diri. Mereka menuduh ChatGPT mendorong ide bunuh diri remaja tersebut dan memberikan informasi mengenai metode bunuh diri, tanpa memperingatkan atau mengalihkan percakapan ke bantuan profesional.
Secara teknis, model bahasa besar seperti ChatGPT dilatih untuk memprediksi kata berikutnya yang paling mungkin berdasarkan pola dalam data, bukan untuk menilai kebenaran faktual atau kondisi psikologis pengguna. Fenomena “halusinasi” AI—yakni ketika sistem menghasilkan informasi yang tampak meyakinkan namun salah—telah diakui luas oleh komunitas ilmiah dan industri.
Sebuah studi yang dipublikasikan pada 2024 oleh tim peneliti yang melibatkan pakar psikologi memori Elizabeth Loftus menunjukkan bahwa percakapan dengan chatbot generatif dapat meningkatkan pembentukan memori palsu secara signifikan. Dalam eksperimen yang melibatkan 200 partisipan yang menonton video kejahatan, kelompok yang diwawancarai oleh chatbot berbasis model bahasa besar menghasilkan lebih dari tiga kali lipat memori palsu segera setelah interaksi dibanding kelompok kontrol, dan sekitar 36,4 persen respons pengguna terbukti disesatkan oleh pertanyaan menjerumuskan dari AI. Temuan tersebut mengindikasikan potensi bahaya penggunaan AI generatif dalam konteks sensitif seperti wawancara saksi atau pengguna dengan kerentanan psikologis.
Survei publik juga menggambarkan hubungan ambivalen antara masyarakat dan AI generatif. Laporan KPMG pada 2024 terhadap lebih dari 48.000 responden global menemukan sekitar 66 persen responden menggunakan AI secara rutin, tetapi hanya 46 persen yang menyatakan bersedia mempercayai sistem AI. Survei terpisah menunjukkan lebih dari 40 persen pengguna pernah menemukan konten tidak akurat atau menyesatkan dalam hasil AI, sementara sekitar 31 persen melaporkan bias dalam ringkasan berbasis AI. Data ini menegaskan bahwa persepsi terhadap AI masih diwarnai ketidakpercayaan, khususnya terkait akurasi dan dampak psikologis.
Dalam pernyataan singkat menanggapi gugatan, OpenAI menyebut kasus ini sebagai tragedi yang memilukan dan menegaskan bahwa perusahaan terus meningkatkan kemampuan sistemnya untuk mengenali tanda‑tanda distress emosional serta mengarahkan pengguna ke sumber bantuan di dunia nyata. Microsoft, sebagai mitra komersial utama, sejauh ini belum memberikan komentar publik terperinci.
Secara hukum, para ahli memperkirakan penggugat harus membuktikan bahwa ChatGPT bukan sekadar alat komunikasi pasif, melainkan produk cacat yang secara dapat diperkirakan akan menyebabkan bahaya bagi pengguna tertentu. Ini mencakup pertanyaan apakah perusahaan memiliki kewajiban khusus untuk mendeteksi dan mengintervensi ketika pola percakapan menunjukkan risiko serius, seperti delusi, ancaman kekerasan, atau ide bunuh diri.
Di luar tragedi pribadi keluarga Adams, gugatan ini berpotensi menjadi tonggak dalam perdebatan global mengenai regulasi kecerdasan buatan. Jika pengadilan menerima argumen bahwa perusahaan AI dapat dimintai tanggung jawab atas tindakan kriminal pengguna yang dipicu atau diperparah oleh interaksi dengan chatbot, industri mungkin dipaksa memperketat desain produk, proses uji keselamatan, dan pemantauan risiko secara signifikan.
Bagi publik, kasus ini menjadi pengingat bahwa meskipun chatbot seperti ChatGPT dapat terasa sangat manusiawi, sistem tersebut tetaplah algoritma statistik yang tidak memiliki kapasitas penilaian moral maupun diagnosis klinis. Di tengah adopsi AI yang kian luas—dari ruang kelas hingga ruang konseling informal—pertanyaan kunci yang muncul adalah sejauh mana kita siap menyerahkan percakapan paling rentan dalam hidup kita kepada mesin, dan siapa yang akan bertanggung jawab ketika percakapan itu berakhir dengan kekerasan di dunia nyata.
You've reached the juicy part of the story.
Sign in with Google to unlock the rest — it takes 2 seconds, and we promise no spoilers in your inbox.
Free forever. No credit card. Just great reading.