OpenAI Mental Health Wellbeing Council

1

OpenAI, виробник популярного чат-бота ChatGPT, вжив заходів для вирішення зростаючої стурбованості щодо впливу штучного інтелекту на психічне здоров’я, створивши експертну раду, яка зосередиться на добробуті користувачів і безпеці ШІ. Ця рада з восьми членів включатиме експертів, які встановлюватимуть стандарти здорової взаємодії з ШІ в різних вікових групах.

Оголошення з’явилося одночасно з суперечливим дописом генерального директора OpenAI Сема Альтмана на Platform X (раніше Twitter). Хоча він рекламував успіх компанії у зменшенні «серйозних проблем з психічним здоров’ям», викликаних її продукцією, Альтман також сказав, що незабаром ChatGPT дозволить більше контенту для дорослих, включаючи діалоги сексуального характеру. Рішення прийнято в критичний момент для OpenAI, оскільки компанія стикається з першим протиправним позовом про смерть, стверджуючи, що ChatGPT сприяв самогубству підлітка.

До складу нової ради OpenAI входять викладачі престижних установ, таких як Лабораторія цифрового благополуччя Бостонської дитячої лікарні та Цифрова клініка психічного здоров’я Стенфордського університету. Їх доповнюють фахівці в галузі психології, психіатрії та взаємодії людини з комп’ютером. Компанія наголошує на своїй відданості відповідальному розвитку, кажучи, що «ми залишаємося відповідальними за рішення, які приймаємо, але продовжуватимемо вчитися на цих порадах… будучи передові системи штучного інтелекту таким чином, щоб сприяти благополуччю людей».

Незважаючи на ці проактивні кроки, громадська довіра до ролі ШІ в психічному здоров’ї залишається низькою. Недавнє опитування YouGov серед 1500 американців показало, що лише 11% готові використовувати ШІ для підтримки психічного здоров’я, і лише 8% висловили впевненість у його безпеці та ефективності. Цей скептицизм відображає ширшу стурбованість у сфері психічного здоров’я.

Експерти висловили серйозне занепокоєння щодо потенційних ризиків генеративних компаньйонів ШІ, включаючи появу «психозу ШІ» серед частих користувачів чат-ботів. Незважаючи на відсутність переконливих доказів користі штучного інтелекту для психічного здоров’я, все більше американців звертаються до ШІ за відповідями та підтримкою, розпалюючи дискусію щодо етичних наслідків цього питання.

Федеральні регулятори зараз ретельно вивчають вплив генеративного штучного інтелекту, зокрема чат-ботів, рекламованих як терапевтичні інструменти, на тлі зростання криз психічного здоров’я, особливо серед підлітків. Кілька штатів прийняли заборону на використання чат-ботів на основі ШІ, які рекламуються в терапевтичних цілях. Каліфорнія зайняла особливо проактивну позицію, прийнявши законодавство, яке вимагає від компаній зі штучним інтелектом повідомляти про проблеми з безпекою, захищати користувачів-підлітків від контенту сексуального характеру та створювати механізми реагування на суїцидальні думки та спроби самогубства.

Формування правління OpenAI підкреслює зростаючий тиск на розробників штучного інтелекту, щоб вони боролися з глибокими суспільними наслідками своїх технологій, особливо в чутливих сферах, таких як психічне здоров’я. Залишається відкритим питання, чи вдасться цим зусиллям розвіяти громадські страхи та зміцнити довіру до ШІ як до відповідального інструменту для вирішення складних людських потреб.