ФТК расследует риски для детей в чат-ботах с искусственным интеллектом

3

Федеральная торговая комиссия (ФТК) запускает всестороннее расследование потенциальных опасностей, которые чат-боты с искусственным интеллектом представляют для детей. В недавнем заявлении, свидетельствующем о растущем беспокойстве по поводу этих быстро развивающихся технологий, агентство потребовало от семи крупнейших технологических компаний подробной информации о мерах безопасности своих чат-ботов.

В список попали Alphabet, Character.AI, Instagram, Meta, OpenAI, Snap и xAI. Заметно отсутствует Anthropic, создатель чат-бота Claude, хотя ФТК отказалась уточнять причины включения или исключения конкретных компаний из этой первой волны запросов. Агентство стремится понять, как эти компании решают уникальные риски, которые их чат-боты представляют для молодых пользователей.

В частности, ФТК заинтересована в трех ключевых областях:

  • Оценка безопасности: Насколько полно компании оценили потенциальный вред, который их чат-боты могут причинить детям, выступая в роли компаньонов или интерактивных персонажей?
  • Ограничение доступа и воздействия: Какие шаги предпринимаются для ограничения доступа к этим чат-ботам несовершеннолетними и смягчения любых отрицательных воздействий, которые они могут оказать на детей и подростков?
  • Прозрачность для пользователей и родителей: Достаточно ли пользователей, в особенности родителей, информированы об имеющихся рисках, связанных с взаимодействием с чат-ботами на основе искусственного интеллекта?

Эта проверка осуществляется в то время, когда правительства по всему миру пытаются регламентировать быстро развивающийся сектор искусственного интеллекта. Расследование ФТК особенно сосредоточено на соблюдении Закона о защите детей от нежелательной онлайн-дискриминации (COPPA), закона, принятого в 1998 году, который регулирует способы, которыми онлайн-услуги собирают и используют данные детей младше 13 лет.

Потребность в большей отчетности частично объясняется громкими судебными делами, такими как дело против OpenAI, компании, стоящей за ChatGPT. Семья калифорнийского подростка, покончившего с собой, подала иск против OpenAI, утверждая, что их чат-бот усугубил прежние психические проблемы подростка, предлагая кажущиеся обнадеживающими ответы на тревожные и саморазрушительные мысли. Этот трагический случай побудил OpenAI внедрить дополнительные меры предосторожности и родительский контроль для более молодых пользователей.

Усиление внимания к этой теме сигнализирует о растущем осознании сложных этических и вопросов безопасности, которые ставят чат-боты на основе искусственного интеллекта, особенно когда речь идет об их потенциальном влиянии на уязвимые молодые аудитории.