Mengapa Mengubah AI Chatbot menjadi Terapis Anda Adalah Ide Buruk

17

Kematian tragis seorang wanita muda yang menceritakan rahasianya kepada chatbot AI bernama Harry sebelum bunuh diri telah memicu perbincangan penting tentang bahayanya mengandalkan kecerdasan buatan untuk dukungan kesehatan mental. Meskipun dapat dimengerti mengapa orang beralih ke chatbot seperti ChatGPT, terutama ketika terapi tradisional tidak dapat diakses atau tidak terjangkau, para ahli memperingatkan bahwa risikonya jauh lebih besar daripada manfaat yang dirasakan.

Kasus ini menyoroti betapa chatbot AI yang tersedia dan tampak berempati dapat disalahartikan sebagai terapis manusia. Sophie, yang berusia 29 tahun, menceritakan kepada Harry tentang pemikirannya untuk bunuh diri, namun alih-alih meminta bantuan, chatbot tersebut tidak secara aktif mencari intervensi atas namanya, menurut sebuah opini pedih yang ditulis oleh ibunya di New York Times. Tragisnya, kejadian ini bukanlah kasus yang terisolasi. Contoh lain melibatkan seorang anak laki-laki berusia 16 tahun yang berdiskusi tentang bunuh diri dengan ChatGPT sebelum kematiannya sendiri, sehingga memicu tuntutan hukum kematian yang tidak wajar terhadap OpenAI, pencipta ChatGPT.

OpenAI mengakui bahwa teknologinya memiliki keterbatasan dalam mendeteksi percakapan berisiko tinggi dan berencana menerapkan perlindungan baru. Hal ini termasuk kemungkinan memperingatkan kontak darurat pengguna jika mereka menyatakan kesusahan. Namun, langkah-langkah ini tidak mengatasi masalah mendasar: chatbot AI pada dasarnya tidak mampu memberikan dukungan terapeutik yang sesungguhnya.

Ilusi Bantuan: Mengapa Chatbots Bisa Berbahaya

Matthew Nour, psikiater dan ahli saraf di Universitas Oxford yang meneliti titik temu antara AI dan kesehatan mental, menjelaskan mengapa penggunaan AI untuk terapi bisa berbahaya:

  • Feedback Loops: Chatbots belajar dengan mengenali pola dalam data tempat mereka dilatih. Jika pengguna mengungkapkan pemikiran atau keyakinan negatif, chatbot mungkin secara tidak sengaja memperkuat pemikiran atau keyakinan tersebut melalui tanggapannya, sehingga menciptakan umpan balik berbahaya yang memperburuk masalah yang ada.
  • Antropomorfisme dan Bias Konfirmasi: Manusia secara alami cenderung memproyeksikan emosi dan niat manusia ke entitas non-manusia seperti chatbot. Dikombinasikan dengan bias konfirmasi (kecenderungan untuk mencari informasi yang membenarkan keyakinan yang ada), hal ini dapat menyebabkan pengguna menerima saran yang berpotensi merusak seolah-olah saran tersebut merupakan empati dan dukungan yang tulus.

Masalah ini menjadi lebih buruk ketika percakapan menjadi panjang dan rumit, yang sering kali terjadi ketika seseorang mencari bantuan terapeutik. ChatGPT sendiri mengakui bahwa perlindungannya kurang dapat diandalkan dalam interaksi yang diperluas ini karena pelatihan model dapat menurun seiring waktu.

Populasi Rentan Berisiko

Remaja, yang sudah menghadapi lingkungan sosial dan emosional yang kompleks, sangat rentan untuk salah menafsirkan respons terprogram chatbot AI sebagai hubungan antarmanusia yang sesungguhnya. Scott Kollins, psikolog anak di Aura (aplikasi perlindungan identitas dan keamanan online), remaja yang menggunakan chatbot sering kali menggunakan chatbot dalam waktu yang lebih lama dibandingkan platform komunikasi tradisional seperti SMS atau Snapchat, sehingga menimbulkan kekhawatiran serius tentang ketergantungan emosional mereka pada teknologi ini.

Mencari Dukungan Nyata:

Meskipun teknologi chatbot AI berkembang pesat, penting untuk diingat bahwa teknologi tersebut bukanlah pengganti hubungan antarmanusia dan layanan kesehatan mental profesional. CEO OpenAI Sam Altman sendiri tidak menyarankan penggunaan ChatGPT sebagai terapis karena kurangnya perlindungan hukum atas informasi sensitif yang dibagikan dengan chatbot.

Bagi mereka yang berjuang dengan tantangan kesehatan mental, berikut adalah alternatif yang lebih aman:

  • Hubungi orang dewasa yang tepercaya: Orang tua, guru, konselor, atau orang dewasa lain yang Anda rasa nyaman untuk curhat dapat memberikan dukungan dan bimbingan yang sangat berharga.
  • Jelajahi komunitas online: Meskipun disarankan untuk berhati-hati, beberapa komunitas online yang dimoderasi dan berfokus pada kesehatan mental dapat memberikan rasa terhubung dan berbagi pengalaman. Ingatlah untuk memprioritaskan dukungan dalam kehidupan nyata di samping interaksi online apa pun.
  • Menulis Jurnal: Menuliskan pikiran dan perasaan Anda bisa menjadi katarsis dan membantu Anda mendapatkan kejelasan dan wawasan.
  • Carilah bantuan profesional: Terapis adalah profesional terlatih yang dapat memberikan perawatan dan dukungan berbasis bukti yang disesuaikan dengan kebutuhan pribadi Anda.

Chatbot AI mempunyai tempat dalam kehidupan kita, namun jika menyangkut kesehatan mental, mengandalkan mereka untuk terapi sama saja dengan mencoba menavigasi kondisi medis yang kompleks dengan mesin pencari dasar—potensi bahayanya lebih besar daripada manfaat yang dirasakan.