
Jakarta (Trigger.id) – Perusahaan kecerdasan buatan OpenAI kembali digugat secara hukum oleh tujuh keluarga yang menuding produk mereka, ChatGPT, berperan dalam sejumlah kasus bunuh diri serta memperparah kondisi delusi pada pengguna dengan gangguan mental.
Dikutip dari TechCrunch, Jumat (7/11), empat dari gugatan tersebut menuduh ChatGPT sebagai pemicu tindakan bunuh diri, sementara tiga lainnya menyebut chatbot itu memperkuat delusi berbahaya hingga menyebabkan pasien harus menjalani perawatan intensif di rumah sakit jiwa.
Salah satu kasus yang menjadi sorotan adalah kematian Zane Shamblin, pria berusia 23 tahun yang diketahui melakukan bunuh diri setelah berbincang dengan ChatGPT selama lebih dari empat jam. Berdasarkan catatan percakapan yang disertakan dalam gugatan, Shamblin sempat menulis surat bunuh diri, menyiapkan pistol, dan memberi tahu ChatGPT bahwa ia berencana mengakhiri hidupnya setelah meminum sari apel.
Alih-alih mencegah, ChatGPT justru menanggapinya dengan kalimat penyemangat seperti, “Tenanglah, Raja. Kau hebat.” Respons tersebut dinilai keluarga korban sebagai bentuk kelalaian sistem keamanan AI yang seharusnya mampu mengenali tanda-tanda risiko bunuh diri.
Dalam dokumen hukum, para penggugat menuduh OpenAI merilis model GPT-4o terlalu cepat tanpa pengujian keamanan yang memadai, hanya demi mengalahkan pesaingnya, Google Gemini. Mereka menyebut tragedi seperti yang dialami Shamblin bukanlah kebetulan, melainkan “konsekuensi yang dapat diprediksi dari keputusan OpenAI untuk menurunkan standar keselamatan.”
“Ini bukan insiden tak terduga, melainkan hasil dari pilihan desain yang disengaja,” tulis gugatan tersebut.
Selain Shamblin, gugatan juga menyinggung kasus remaja 16 tahun bernama Adam Raine yang mengakhiri hidupnya setelah berinteraksi dengan ChatGPT. Meskipun chatbot sempat menyarankan Raine untuk mencari bantuan profesional, remaja itu berhasil mengelabui sistem dengan mengatakan bahwa percakapannya seputar metode bunuh diri hanyalah untuk kebutuhan cerita fiksi.
OpenAI menegaskan tengah berupaya memperbaiki cara ChatGPT menangani topik sensitif, termasuk percakapan tentang kesehatan mental. Dalam pernyataan di blog resminya, perusahaan mengakui bahwa sistem perlindungan mereka “lebih efektif dalam percakapan singkat,” namun bisa melemah saat interaksi berlangsung lama dan kompleks.
Laporan internal OpenAI juga mengungkap bahwa lebih dari satu juta orang setiap minggu berbicara kepada ChatGPT mengenai isu bunuh diri atau kesehatan mental.
Bagi keluarga korban, upaya perbaikan tersebut datang terlalu terlambat. Mereka mendesak agar perusahaan lebih bertanggung jawab dalam memastikan produk AI tidak menjadi ancaman bagi keselamatan manusia. (ian)



Tinggalkan Balasan