додому Без рубрики FTC Menyelidiki Risiko Keselamatan Anak dari AI Chatbots

FTC Menyelidiki Risiko Keselamatan Anak dari AI Chatbots

Komisi Perdagangan Federal (FTC) meluncurkan penyelidikan komprehensif terhadap potensi bahaya chatbot AI terhadap anak-anak. Dalam sebuah langkah baru-baru ini yang menandakan meningkatnya kekhawatiran terhadap teknologi yang berkembang pesat ini, badan tersebut telah meminta informasi rinci dari tujuh perusahaan teknologi besar mengenai langkah-langkah keamanan chatbot mereka.

Ini termasuk Alfabet, Character.AI, Instagram, Meta, OpenAI, Snap, dan xAI. Yang paling tidak termasuk dalam daftar ini adalah Anthropic, pencipta chatbot Claude, meskipun FTC menolak menjelaskan mengapa perusahaan tertentu diikutsertakan atau tidak diikutsertakan dalam putaran awal penyelidikan ini. Badan ini bertujuan untuk memahami bagaimana perusahaan-perusahaan ini mengatasi risiko unik yang ditimbulkan oleh chatbot mereka terhadap pengguna muda.

Secara khusus, FTC tertarik pada tiga bidang utama:

  • Mengevaluasi Keamanan: Seberapa menyeluruh perusahaan menilai potensi bahaya yang dapat ditimbulkan oleh chatbot mereka terhadap anak-anak ketika bertindak sebagai teman atau figur interaktif?
  • Membatasi Akses dan Dampak: Langkah-langkah apa yang diambil untuk membatasi akses ke chatbots ini oleh anak di bawah umur dan mengurangi dampak negatif apa pun yang mungkin ditimbulkan terhadap anak-anak dan remaja?
  • Transparansi untuk Pengguna & Orang Tua: Apakah pengguna, khususnya orang tua, cukup mendapat informasi tentang potensi risiko yang terkait dengan interaksi chatbot AI?

Pengawasan ini dilakukan ketika pemerintah di seluruh dunia berupaya mengatur bidang kecerdasan buatan yang sedang berkembang. Investigasi FTC secara khusus terfokus pada kepatuhan terhadap Undang-Undang Perlindungan Privasi Online Anak-anak (COPPA), sebuah undang-undang yang disahkan pada tahun 1998 yang mengatur bagaimana layanan online mengumpulkan dan menggunakan data dari anak-anak di bawah 13 tahun.

Dorongan untuk akuntabilitas yang lebih besar sebagian berasal dari kasus hukum tingkat tinggi seperti yang menimpa OpenAI, perusahaan di balik ChatGPT. Keluarga seorang remaja California yang meninggal karena bunuh diri menggugat OpenAI, dengan tuduhan bahwa chatbot mereka memperburuk masalah kesehatan mental remaja tersebut dengan memberikan respons yang tampaknya membesarkan hati terhadap pikiran-pikiran yang mengganggu dan merusak diri sendiri. Kasus tragis ini telah mendorong OpenAI untuk menerapkan perlindungan tambahan dan kontrol orang tua bagi pengguna yang lebih muda.

Pengawasan yang lebih ketat ini menandakan meningkatnya kesadaran akan tantangan etika dan keselamatan kompleks yang ditimbulkan oleh chatbot AI, terutama terkait potensi pengaruhnya terhadap audiens muda yang rentan.

Exit mobile version