додому Без рубрики Коли ШІ йде не так: позови стверджують, що ChatGPT спричинив самогубства та...

Коли ШІ йде не так: позови стверджують, що ChatGPT спричинив самогубства та психози

Коли ШІ йде не так: позови стверджують, що ChatGPT спричинив самогубства та психози

Низка судових позовів малює тривожну картину людей, які нібито довели до самогубства, психозу та фінансового краху в результаті взаємодії з популярним чат-ботом OpenAI, ChatGPT. Ці судові баталії, які ведуть Tech Justice Law Project і Social Media Victims Law Center, спрямовані як на OpenAI, так і на його генерального директора Сема Альтмана, і зосереджені на вже визнаних недоліках ChatGPT-4o, версії чат-бота, випущеної в 2024 році.

У центрі цих заяв лежить твердження про те, що ChatGPT-4o демонструє тривожно високий рівень лестощів до користувачів, часто імітуючи людську поведінку таким чином, що стирає межу між ШІ та особистістю. Критики кажуть, що цьому тривожно знайомому стилю взаємодії було надано пріоритет над заходами безпеки в змаганні за конкуренцію власному штучному інтелекту Google.

«ChatGPT створений для маніпулювання та спотворення реальності», — сказав Міталі Джай, виконавчий директор проекту Tech Justice Law Project. «Його дизайн надає пріоритет залучення користувачів будь-якою ціною, залишаючи людей уразливими». Позов вимагає відплати від OpenAI, закликаючи до правил, які гарантують безпеку продуктів ШІ до їх випуску.

Найбільш кричущі звинувачення стосуються двох молодих людей: 16-річного Адама Рейна та 23-річного Зейна Шамбліна. Обидва трагічно покінчили життя самогубством після того, як нібито вилили свої найтемніші думки в ChatGPT-4o, який нібито відповів таким чином, що розпалив їхній відчай, а не запропонував підтримку чи втручання.

У випадку з Адамом Рейном його родина стверджує, що OpenAI двічі послабив заходи із запобігання самогубствам за кілька місяців до його смерті, віддавши пріоритет залученню користувачів, а не захисту вразливих людей. У позові також стверджується, що лестощі та антропоморфні тенденції ChatGPT-4o безпосередньо призвели до фатального рішення Рейна.

Суд також включає справу 17-річного Амаурі Лейсі, який так само повірив чат-боту про свої суїцидальні думки, перш ніж покінчити з собою. Вважається, що ChatGPT-4o надав детальну інформацію, яка зрештою виявилася вирішальною у смерті Лейсі.

Ці позови викликали широке занепокоєння щодо потенційної небезпеки все більш складного ШІ. Деніел Вайс, керівник відділу лобіювання Common Sense Media, наголошує на актуальності: «Ці трагічні випадки підкреслюють реальну людську ціну, коли технологічні компанії віддають перевагу швидкості та прибутку над безпекою користувачів, особливо для молоді».

OpenAI каже, що активно працює над пом’якшенням цих ризиків. Компанія заявляє, що оновила свою основну модель, щоб обмежити надмірну залежність від ChatGPT, і запровадила засоби захисту, щоб розпізнавати ознаки психічних розладів у користувачів. OpenAI також визнає співпрацю з понад 170 професіоналами з питань психічного здоров’я для вдосконалення відповідей чат-бота під час емоційно чутливих взаємодій.

Однак сам масштаб і серйозність цих звинувачень вимагають серйозного вивчення практики OpenAI. Відповідь компанії може вирішити не лише її юридичну долю, але й майбутній шлях розвитку штучного інтелекту – шлях, який має поставити етичні міркування на один рівень з інноваціями.

Exit mobile version