Dark mode


Темная тема
A+ | Сброс | A-
Пентагон против Anthropic: зачем на самом деле устраняли конкурента OpenAI
Пентагон против Anthropic: зачем на самом деле устраняли конкурента OpenAI
Глава Пентагона Пит Хегсет, требуя от компании Anthropic снять ограничения на применение модели так называемого искусственного интеллекта (ИИ) Claude, фактически проводит операцию по спасению финансово уязвимого OpenAI и устранению слишком успешного конкурента, отмечает IT-редакция ИА Красная Весна.

Странность ситуации раскрывается в контексте конкурентной борьбы на рынке больших языковых моделей. Anthropic был создан бывшими сотрудниками OpenAI после споров о безопасности. За последние месяцы он отвоевал у OpenAI значительную долю рынка. По оценкам, более 50% предпринимательского сегмента перешли на его продукты. При этом Anthropic демонстрирует более осторожную инвестиционную политику в инфраструктуру, сохраняя меньший уровень долговой нагрузки по сравнению с конкурентом.

А OpenAI испытывает критический дефицит средств: китайские разработчики агрессивно захватывают рынок практически бесплатными моделями. Не дают покоя и внутренние финансовые проблемы компании. Несколько месяцев назад обсуждался даже вопрос о государственном спасительном пакете по принципу «too big to fail». На OpenAI завязано слишком много финансовых круговых сделок, и её крах грозит системными последствиями.

27 февраля Пентагон направил указание признать Anthropic «риском для цепочки поставок национальной безопасности», после того как Anthropic якобы отказался снять все этические ограничения вокруг своих Больших Языковых Моделей (БЯМ), или быть официально обозначенным риском для национальной безопасности. Это крайняя мера, обычно применяемая к иностранным компаниям-противникам (вроде Huawei).

Буквально в тот же день, генеральный директор OpenAI Сэм Альтман подписал с Пентагоном идентичное соглашение — то же самое, которое требовал Anthropic, — и одновременно объявил о новом транше инвестиций, включая участие Amazon. Такая синхронность действий наводит на мысль, что американское государство просто осуществило операцию по спасению OpenAI.

Также стоит отметить особенности американского отношения к этике в области ИИ. Дело в том, что ни Anthropic, ни OpenAI серьезно этикой не занимались в принципе: обе компании построены на украденных трудах всего человечества, и открыто преследуют цель замещения человеческого труда. А все заявления Anthropic по поводу этики — не что иное как маркетинг, позволяющий убедить компании в «правильном» выборе.

Anthropic никогда не имел возможность влиять на решения об использовании ИИ в массовой слежке, которая в США осуществляется вообще независимо от Anthropic или OpenAI. А заявления Дарио Амодеи о недостаточной зрелости технологий для автономного оружия носили исключительно технический, а не этический характер.

Еще новости от: rossaprimavera.ru