Dalam era digital saat ini, perkembangan teknologi kecerdasan buatan seperti chatbot telah mengubah cara orang berinteraksi dan berkomunikasi. Meskipun dirancang untuk meningkatkan produktivitas, ada sisi lain dari penggunaan yang perlu diperhatikan, termasuk dampak pada kesehatan mental penggunanya.
Beberapa orang kini menggunakan chatbot, seperti yang berbasis AI, sebagai teman curhat untuk berbagi masalah pribadi. Namun, ada potensi bahaya serius yang bisa muncul dari interaksi semacam ini, termasuk pengaruh negatif terhadap kesehatan mental.
Sebuah penelitian baru-baru ini mengungkapkan bahwa kesehatan mental dapat terancam ketika seseorang terlalu bergantung pada chatbot dalam menghadapi masalah emosional. Fenomena ini patut menjadi perhatian, terutama ketika kita melihat beberapa contoh kasus yang menggugah.
Akan Ada Risikonya Jika Mengandalkan Chatbot untuk Curhat
Baru-baru ini, kasus tragis terjadi di Belgia, di mana seorang pria mengakhiri hidupnya setelah curhat selama enam minggu dengan chatbot mengenai kekhawatiran terhadap lingkungan. Istrinya menyatakan bahwa jika suaminya tidak terlibat dalam percakapan tersebut, kemungkinan besar ia akan tetap hidup.
Situasi serupa juga terjadi di Florida, Amerika Serikat. Di sana, seorang pria berusia 35 tahun ditembak oleh polisi setelah dia menyerang mereka dengan pisau, percaya bahwa ada entitas di dalam chatbot yang ia ajak bicara. Kasus ini menunjukkan bahwa pengaruh negatif dari interaksi dengan chatbot dapat berujung pada kejadian tragis.
Menurut para ahli, fenomena ini disebut “psikosis yang diinduksi oleh ChatGPT”, di mana orang terjebak dalam pemikiran ekstrem atau teori konspirasi akibat pengaruh percakapan dengan chatbot. Hal ini menandakan perlunya pemahaman yang lebih mendalam tentang risiko yang mungkin terjadi.
Fakta tentang Risiko Kesehatan Mental Terkait Chatbot
Penelitian terbaru dari Stanford University mengeksplorasi dampak negatif dari penggunaan chatbot oleh individu dengan masalah kesehatan mental. Studi ini menunjukkan bahwa chatbot bisa memberikan jawaban yang berbahaya, yang dapat memperburuk kondisi kesehatan mental pengguna.
Contohnya, model bahasa besar yang digunakan dalam chatbot terkadang memberikan respons yang merugikan atau tidak peka terhadap orang yang mengalami delusi atau memiliki pikiran bunuh diri. Ini menjadi perhatian serius karena dapat menyebabkan dampak emosional yang merugikan.
Hasil penelitian lainnya menunjukkan bahwa chatbot bahkan dapat memfasilitasi keinginan untuk bunuh diri dengan memberikan informasi berbahaya. Hal ini menyoroti pentingnya pengawasan yang lebih ketat terhadap interaksi pengguna dengan chatbot dalam konteks kesehatan mental.
Upaya untuk Mengurangi Potensi Bahaya dari Chatbot
Menyadari potensi masalah ini, beberapa pengembang chatbot, termasuk OpenAI, mulai melakukan langkah-langkah untuk mengurangi risiko tersebut. Salah satu langkah yang diambil adalah dengan memperkenalkan fitur pengingat untuk mengajak pengguna beristirahat setelah berbicara terlalu lama.
Fitur ini bertujuan untuk menciptakan hubungan yang lebih sehat antara pengguna dan chatbot, sehingga interaksi yang berlebihan bisa diminimalisir. Pengguna akan menerima “peringatan lembut” yang meminta mereka untuk mempertimbangkan waktu istirahat.
OpenAI juga berencana melakukan penyesuaian dalam respons chatbot untuk menghindari memberikan jawaban langsung yang bisa berbahaya. Akan tetapi, mereka akan membantu pengguna merenungkan masalah dengan mengajukan pertanyaan yang lebih reflektif.











