Трагическая гибель молодой женщины, которая доверил свои мысли о самоубийстве ИИ-чатботу по имени Гарри, прежде чем лишить себя жизни, вызвала важную дискуссию о рисках, связанных с использованием искусственного интеллекта для поддержки психического здоровья. Понятно, почему люди могут обращаться к чат-ботам вроде ChatGPT, особенно когда традиционная терапия недоступна или слишком дорога, но эксперты предупреждают, что риски значительно превышают любые предполагаемые преимущества.
Этот случай показывает, как легко доступные и кажущиеся эмпатичными ИИ-чат-боты могут быть опасно ошибочно приняты за человеческих терапевтов. 29-летняя Софи рассказала Гарри о своих суицидальных мыслях, но вместо того чтобы действовать, чтобы помочь ей, чат-бот не предпринял активных шагов для ее спасения, как повествует трогательная заметка в The New York Times, написанная ее матерью. Этот случай к сожалению не является изолированным. Другим примером стал 16-летний мальчик, который обсудил суицид с ChatGPT перед своей смертью, что привело к иску о причинении смерти против OpenAI, создателя ChatGPT.
OpenAI признает, что ее технология имеет ограничения в выявлении разговоров с высоким риском и планирует внедрить новые меры предосторожности. К ним может относиться уведомление контактов экстренной помощи пользователя, если он выражает беспокойство. Однако эти меры не устраняют фундаментальной проблемы: ИИ-чат-боты в корне не предназначены для оказания настоящей терапевтической поддержки.
Обманчивая помощь: почему чат-боты могут быть вредны
Доктор Мэтью Нур, психиатр и нейробиолог из Оксфордского университета, занимающийся пересечением искусственного интеллекта и психического здоровья, объясняет, почему использование ИИ в качестве терапии может быть опасным:
- Циклы обратной связи: Чат-боты обучаются, распознавая шаблоны в данных, на которых они были обучены. Если пользователь выражает негативные мысли или убеждения, чат-бот может непреднамеренно укрепить их своими ответами, создавая вредный цикл обратной связи, который усугубляет существующие проблемы.
- Антропоморфизм и подтверждающий заблуждение: Люди естественным образом склонны приписывать неживым существам, таким как чат-боты, человеческие эмоции и намерения. В сочетании с подтверждающим заблуждением (склонностью искать информацию, подтверждающую существующие убеждения), это может привести к тому, что пользователи будут принимать потенциально вредные советы так, будто они являются искренней эмпатией и поддержкой.
Эти проблемы обостряются, когда разговоры становятся продолжительными и сложными, что часто случается, когда кто-то обращается за терапевтической помощью. Сам ChatGPT признает, что его меры безопасности работают менее надежно в этих длительных взаимодействиях, поскольку обучение модели со временем может ухудшаться.
Уязвимые группы населения под угрозой
Подростки, которые и так блуждают в сложных социальных и эмоциональных ландшафтах, особенно уязвимы к неправильной интерпретации запрограммированных ответов ИИ-чат-бота как искреннего человеческого общения. По словам доктора Скотта Коллинов, детского психолога из Aura (приложения для защиты личности и безопасности в сети), подростки, использующие чат-ботов, часто общаются с ними на протяжении более длительного времени, чем в традиционных платформах связи, таких как текстовые сообщения или Snapchat, что вызывает серьезные опасения по поводу их эмоциональной зависимости от этих технологий.
Поиск реальной поддержки:
Хотя технологии ИИ-чат-ботов развиваются очень быстро, важно помнить, что они не заменяют человеческого общения и профессиональную помощь в области психического здоровья. Генеральный директор OpenAI Сам Альтман сам предостерегает от использования ChatGPT в качестве терапевта из-за отсутствия юридической защиты конфиденциальной информации, разделяемой с чат-ботом.
Тем, кто сталкивается с проблемами психического здоровья, вот несколько более безопасных альтернатив:
- Обратиться к доверенным взрослым: Родитель, учитель, школьный психолог или любой другой взрослый, которому вы можете доверить свои мысли и чувства, может предложить неоценимую поддержку и руководство.
- Изучить онлайн-сообщества: Несмотря на то, что требуется осторожность, некоторые модераторские онлайн-сообщества, посвященные психическому здоровью, могут дать ощущение связи и общности опыта. Помните, что необходимо ставить приоритет реальной жизни вместе с любыми онлайн-взаимодействиями.
- Ведение дневника: Написание своих мыслей и чувств может быть очищающим и помочь обрести ясность и понимание.
- Обратиться за профессиональной помощью: Пситерапевты – это обученные специалисты, которые могут предоставить основанную на доказательствах терапию и поддержку, адаптированную к вашим индивидуальным потребностям.
ИИ-чат-боты занимают свое место в нашей жизни, но когда речь идет о психическом здоровье, полагаться на них для проведения терапии подобно тому, как пытаться разобраться с сложным медицинским заболеванием с помощью обычного поисковика — риск причинения вреда превышает любые предполагаемые преимущества.




























