Bahaya Mengandalkan AI untuk Nasihat Medis dan Kesehatan
Saat sedang cemas soal kesehatan, jawaban cepat memang terasa menenangkan. Tinggal ketik gejala, unggah hasil tes, lalu dalam hitungan detik AI memberi penjelasan yang terdengar meyakinkan. Masalahnya, rasa tenang itu bisa menipu. Semakin manusiawi gaya bicara chatbot, semakin mudah orang lupa bahwa mereka tidak sedang berbicara dengan dokter, psikolog, atau terapis sungguhan. xAI memasarkan Grok sebagai “AI companion,” sementara laporan lain menunjukkan Grok juga pernah memiliki atau menampilkan persona seperti “Therapist” dan mode lain yang meniru percakapan profesional.
Di sinilah bahayanya. AI bisa terdengar empatik, cepat, dan percaya diri, tetapi itu tidak sama dengan kompeten secara klinis. Dalam isu kesehatan fisik maupun mental, satu jawaban yang meleset bisa membuat orang menunda pemeriksaan, salah menafsirkan gejala, atau merasa sudah “ditangani” padahal kondisi sebenarnya butuh bantuan manusia sesegera mungkin. Bahkan ketika Elon Musk mendorong publik memakai Grok untuk “second opinion” medis, laporan media menunjukkan Grok sendiri justru memberi peringatan agar pengguna tidak mengandalkannya untuk panduan medis karena keterbatasan akurasi dan privasi.
AI Terdengar Pintar, Tapi Tidak Memikul Tanggung Jawab Klinis
Salah satu masalah terbesar dari chatbot kesehatan adalah ilusi kepastian. AI sering menyusun jawaban dengan bahasa yang rapi dan tenang, sehingga terasa meyakinkan. Padahal, sistem seperti ini tidak memeriksa Anda secara langsung, tidak membaca konteks hidup Anda sepenuhnya, dan tidak bertanggung jawab secara profesional atas keputusan yang Anda ambil setelah membaca responsnya.

Untuk kesehatan mental, risikonya bisa lebih rumit lagi. Ketika AI diberi persona “terapis,” pengguna rentan menganggapnya sebagai ruang aman yang setara dengan terapi sungguhan. Padahal hubungan terapeutik nyata dibangun lewat lisensi, standar etik, evaluasi risiko, dan kemampuan membaca kondisi manusia yang jauh lebih kompleks daripada sekadar pola bahasa. Sejumlah laporan menyoroti bahwa prompt internal Grok mendorong persona “Therapist” untuk memakai teknik seperti CBT, DBT, dan mindfulness serta berbicara seperti terapis sungguhan, sesuatu yang memicu kekhawatiran serius.
Kenapa Ini Terasa Berbahaya?
Karena orang biasanya mencari bantuan AI saat sedang tidak ideal: panik, takut, kesepian, atau butuh jawaban instan. Dalam kondisi seperti itu, mereka cenderung lebih mudah menerima jawaban yang terdengar tegas. Kalau AI salah, terlalu menyederhanakan, atau justru menguatkan ketakutan yang keliru, dampaknya bisa membesar.
Para ahli kesehatan mental juga sudah berulang kali mengingatkan bahwa chatbot tidak boleh diperlakukan sebagai pengganti terapi. Ada kekhawatiran soal self-diagnosis yang salah, ketergantungan emosional, penguatan delusi, sampai respons yang tidak cukup aman untuk pengguna rentan. Beberapa negara bagian di AS bahkan sudah bergerak membatasi chatbot yang tampil seolah-olah menjadi profesional kesehatan mental.
Privasi Juga Bukan Hal Kecil
Ada satu hal lain yang sering luput: data kesehatan adalah data yang sangat sensitif. Saat orang mengunggah hasil lab, rekam medis, atau cerita kondisi psikologis mereka ke chatbot, mereka sering tidak benar-benar memahami ke mana data itu pergi, bagaimana diproses, dan apakah sistem tersebut memang dirancang untuk standar privasi setingkat layanan kesehatan. Kekhawatiran soal privasi data medis di Grok juga sudah menjadi bahan sorotan, apalagi di tengah investigasi regulator Inggris terhadap xAI dan XIUC terkait pemrosesan data pribadi dalam sistem Grok.
Gunakan AI Sebagai Alat Bantu, Bukan Otoritas
Bukan berarti AI sama sekali tidak berguna. Untuk merapikan daftar pertanyaan sebelum ke dokter, menjelaskan istilah medis yang sulit, atau membantu merangkum hasil bacaan, AI bisa bermanfaat. Tetapi posisinya harus jelas: alat bantu awal, bukan pengambil keputusan. Kalau gejala Anda serius, memburuk, terkait obat, diagnosis, atau kesehatan mental, jalur paling aman tetap tenaga profesional manusia.
Penutup
AI mungkin bisa memberi jawaban cepat, tetapi kesehatan bukan bidang yang aman untuk diperlakukan seperti eksperimen obrolan. Semakin realistis dan empatik sebuah chatbot terdengar, semakin penting bagi kita untuk mengingat bahwa ia tidak punya lisensi, tidak punya tanggung jawab klinis, dan tidak benar-benar memahami manusia seperti dokter atau terapis sungguhan. Kekhawatiran ini makin relevan ketika platform seperti Grok menghadirkan persona bertema terapi atau mendorong penggunaan bernuansa medis.






