Федеральна торгова комісія (FTC) починає комплексне розслідування потенційної небезпеки, яку несуть чат-боти зі штучним інтелектом для дітей. У нещодавній заяві, в якій висвітлюється зростаюча стурбованість цими технологіями, що швидко розвиваються, агентство вимагало від семи найбільших технологічних компаній детальну інформацію про заходи безпеки їхніх чат-ботів.
Список включає Alphabet, Character.AI, Instagram, Meta, OpenAI, Snap і xAI. Зокрема, відсутній Anthropic, творець чат-бота Claude, хоча FTC відмовилася уточнювати причини включення або виключення конкретних компаній з цієї першої хвилі запитів. Агентство прагне зрозуміти, як ці компанії реагують на унікальні ризики, які створюють їхні чат-боти для молодих користувачів.
Зокрема, FTC зацікавлена в трьох ключових сферах:
- Рейтинг безпеки: Наскільки повно компанії оцінили потенційну шкоду, яку їхні чат-боти можуть завдати дітям, виступаючи в якості компаньйонів або інтерактивних персонажів?
- Обмеження доступу та впливу: Які кроки вживаються для обмеження доступу неповнолітніх до цих чат-ботів і пом’якшення будь-якого негативного впливу, який вони можуть мати на дітей і підлітків?
- Прозорість для користувачів і батьків: Чи користувачі, особливо батьки, достатньо поінформовані про ризики, пов’язані з взаємодією з чат-ботами на основі ШІ?
Перегляд відбувається в той момент, коли уряди в усьому світі намагаються регулювати сектор штучного інтелекту, що швидко розвивається. Розслідування FTC особливо зосереджено на дотриманні Закону про протидію дискримінації дітей в Інтернеті (COPPA), закону, прийнятого в 1998 році, який регулює способи збору та використання даних онлайн-службами дітей віком до 13 років.
Потреба в більшій звітності частково зумовлена гучними судовими справами, такими як справа проти OpenAI, компанії, що стоїть за ChatGPT. Сім’я каліфорнійського підлітка, який покінчив життя самогубством, подала позов проти OpenAI, стверджуючи, що його чат-бот посилив попередні проблеми з психічним здоров’ям підлітка, пропонуючи, здавалося б, обнадійливі відповіді на тривожні та саморуйнівні думки. Цей трагічний інцидент спонукав OpenAI запровадити додаткові заходи безпеки та батьківський контроль для молодших користувачів.
Підвищена увага до цієї теми свідчить про зростаюче усвідомлення складних етичних проблем і питань безпеки, пов’язаних із чат-ботами зі штучним інтелектом, особливо коли йдеться про їхній потенційний вплив на вразливу молоду аудиторію.
