Компания OpenAI, стоящая за ChatGPT, подвергается критике из-за реструктуризации из чисто некоммерческой организации в гибридную модель с прибыльной структурой. Этот сдвиг поднимает серьёзные вопросы о том, способна ли компания действительно придерживаться своей первоначальной миссии: разрабатывать искусственный интеллект «на благо всего человечества».
Первоначально основанная как некоммерческая организация, чтобы защитить свои технологии от влияния инвесторов, OpenAI теперь создала структуру, в которой мотивы прибыли могут легко затмить заявленные этические цели. Несмотря на заверения генерального директора Сэма Альтмана о том, что некоммерческая сторона будет направлять прибыльную часть, критики утверждают, что это лишь завуалированная попытка работать как любая другая корпорация в сфере ИИ.
Юридически серая зона
По словам Кэтрин Брейси, основательницы Tech Equity, схема OpenAI может быть незаконной в соответствии с законодательством Калифорнии. Компания фактически бросает вызов регулирующим органам, чтобы те применили правила, регулирующие некоммерческие организации, учитывая её огромные финансовые рычаги и юридические ресурсы. Брейси утверждает, что OpenAI сознательно нарушает свои юридические обязательства, ставя прибыль выше своей заявленной миссии.
Объявленный компанией фонд в 180 миллиардов долларов рассматривается скептически. Критики полагают, что этот фонд будет функционировать скорее как инструмент корпоративной социальной ответственности, чем как действительно независимая организация, направляя финансирование на инициативы, которые принесут пользу рыночным позициям OpenAI, а не истинному альтруизму.
Динамика власти
Основная проблема – фундаментальный конфликт интересов. Заявленная миссия OpenAI противоречит неизбежному давлению прибыльного мира, где «победа» в гонке ИИ и максимизация прибыли являются приоритетом. Действия компании, включая сотрудничество с Министерством обороны и обработку спорных взаимодействий с чат-ботами, указывают на то, что прибыль всегда будет превалировать над этическими соображениями.
Брейси подчёркивает лицемерие принятия финансирования от OpenAI, одновременно ставя под сомнение её целостность. Она проводит параллели с табачной, алкогольной и газированной промышленностью, где корпоративные исследования изначально предвзяты. Независимость фонда OpenAI вызывает вопросы, учитывая его прямые финансовые связи с прибыльной структурой.
Более широкая картина
Эта ситуация подчёркивает более широкую проблему: неконтролируемую власть технологических миллиардеров и их способность обходить правила. Риск OpenAI основан на предположении, что регулирующие органы не будут оспаривать её действия, что отражает менталитет Кремниевой долины: «проси прощения, а не разрешения».
Дебаты о будущем OpenAI касаются не только одной компании. Речь идёт о фундаментальном контроле над разработкой ИИ и о том, будет ли он определяться прибылью или истинной общественной выгодой. Если эта реструктуризация устоит, она создаст опасный прецедент, предполагая, что даже самые амбициозные этические обязательства можно принести в жертву на алтаре финансовой выгоды.
Борьба за направление OpenAI ещё не окончена: Брейси и другие призывают к большей ответственности и переоценке того, как управляется ИИ. Будущее этой технологии — и её влияние на человечество — висит на волоске.
