Компания Anthropic, ведущий разработчик искусственного интеллекта, объявила о создании новой модели под названием Claude Mythos Preview. Однако, совершив шаг, знаменующий смену подходов к управлению высокопроизводительным ИИ, компания решила не выпускать модель в открытый доступ.
Вместо этого Anthropic ограничивает доступ узким кругом лидеров индустрии, чтобы решить растущую проблему: риск использования продвинутого ИИ в качестве оружия в кибервойнах.
Project Glasswing: оборонительная коалиция
Вместо широкомасштабного запуска Anthropic внедряет Mythos через консорциум, известный как Project Glasswing. В эту группу входят более 40 крупнейших технологических игроков, включая:
- Технологических гигантов: Apple, Amazon, Microsoft и Google.
- Поставщиков оборудования и инфраструктуры: Cisco и Broadcom.
- Защитников Open Source: Linux Foundation.
Цель этой коалиции — использовать продвинутые способности модели к рассуждению, чтобы выявлять и устранять уязвимости в безопасности критически важного программного обеспечения и инфраструктуры до того, как ими смогут воспользоваться злоумышленники. Для поддержки этой инициативы Anthropic выделяет проекту до 100 миллионов долларов в виде кредитов на использование Claude.
Почему это важно: ИИ-«расплата»
Решение скрыть Mythos от общественности подчеркивает растущее напряжение в ИИ-индустрии: баланс между инновациями и безопасностью. По мере того как модели становятся всё более способными понимать сложный программный код, они превращаются в технологии двойного назначения. С одной стороны, они могут помочь разработчикам защитить ПО, с другой — хакеры могут использовать их для поиска уязвимостей «нулевого дня» (ошибок, о которых еще не знают создатели программного обеспечения).
Руководство Anthropic полагает, что мы приближаемся к критической точке перелома в сфере кибербезопасности.
«Наша цель — повысить осведомленность и дать добросовестным игрокам преимущество в процессе защиты открытой и частной инфраструктуры и кода»,
— Джаред Каплан, главный научный сотрудник Anthropic
Логан Грэм, глава команды по тестированию безопасности Anthropic, назвал этот выпуск «расплатой» (reckoning) для всей индустрии. Это подразумевает, что нынешних методов обеспечения безопасности программного обеспечения может оказаться недостаточно в эпоху, когда ИИ способен автоматизировать поиск сложных эксплойтов.
Смена парадигмы управления ИИ
Ограничивая доступ к Mythos проверенной группой «добросовестных игроков», Anthropic пытается создать прецедент того, как следует обращаться с «пограничными моделями» (frontier models) — ИИ, обладающим потенциально опасными возможностями. Этот подход знаменует переход от традиционной модели «открытого релиза» к более контролируемой стратегии коллективной обороны.
Этот шаг порождает важные вопросы о будущем индустрии:
— Последуют ли другие разработчики ИИ этой ограничительной модели для создания высокомощных инструментов?
— Сможет ли частный консорциум эффективно защитить глобальную цифровую инфраструктуру?
— Как будет развиваться разрыв между «оборонительным ИИ» и «наступательным ИИ»?
Заключение
Решение Anthropic ограничить доступ к Claude Mythos знаменует новую эру разработки ИИ, где способность защищать программное обеспечение считается слишком опасной, чтобы оставлять её в руках широкой публики. С помощью Project Glasswing компания пытается выстроить оборонительный щит, чтобы оставаться на шаг впереди киберугроз, управляемых искусственным интеллектом.





























