Трамп запретил федеральным ведомствам использовать Claude

724
3
Трамп запретил федеральным ведомствам использовать Claude

Президент США Дональд Трамп распорядился прекратить использование продуктов компании Anthropic, включая ИИ‑систему Claude, во всех федеральных ведомствах. Указ предусматривает шестимесячный переходный период — за это время госорганы, в том числе Министерство обороны, должны перейти на альтернативные решения.

Конфликт разгорелся из‑за отказа Anthropic разрешить Пентагону использовать Claude для массовой слежки за американскими гражданами и в полностью автономных системах вооружений. Пит Хегсет пригрозил присвоить компании статус «риска для цепочки поставок» национальной безопасности — и после указа Трампа официально объявил о таком решении. Теперь ни один подрядчик, сотрудничающий с армией США, не вправе вести бизнес с Anthropic.

Переговоры между сторонами фактически зашли в тупик. По словам представителя Anthropic, предложенные «компромиссные» формулировки содержали юридические оговорки, позволявшие игнорировать ограничения по желанию. Компания подчёркивает, что готова продолжать диалог и обеспечивать операционную непрерывность для военных, но не готова идти на уступки, ставящие под угрозу этические принципы. В официальном заявлении Anthropic пообещала оспорить присвоение статуса «риска для цепочки поставок» в суде. В компании считают такой шаг беспрецедентным: ранее эта мера применялась только к противникам США, а не к американским компаниям.

Реакция на действия администрации Трампа оказалась неоднозначной. Правозащитные организации выступили против указа. Александра Гивенс, глава Центра демократии и технологий (CDT), назвала происходящее опасным прецедентом: по её мнению, подобные угрозы подрывают целостность инновационной экосистемы, искажают рыночные стимулы и расширяют исполнительную власть без достаточных оснований. Сенатор Марк Уорнер указал, что действия Трампа и Хегсета могут быть лишь предлогом для перенаправления контрактов предпочтительному поставщику, и предупредил о рисках для готовности оборонных структур и готовности частного сектора сотрудничать с правительством.

ИИ‑индустрия в значительной степени поддержала Anthropic. Сотни сотрудников Google и OpenAI подписали открытое письмо с призывом к солидарности. Сэм Альтман, глава OpenAI, во внутреннем меморандуме заявил, что компания установит те же «красные линии», что и Anthropic. Anthropic, в свою очередь, подтвердила, что продолжит поддерживать американских военных (сотрудничество идёт с июня 2024 года), но ни запугивания, ни санкции не заставят её изменить позицию относительно массовой внутренней слежки и автономных вооружений. Реальный правовой спор, если он состоится, развернётся вокруг трактовки Закона об оборонном производстве (DPA) и статуса «риска для цепочки поставок», а не вокруг ссылок на Конституцию, использованных в риторике президента.

Другие публикации по теме
Организаторы "Оскара" сильно оскорбили Джеффа Кили — он этого не забудет
Организаторы "Оскара" сильно оскорбили Джеффа Кили — он этого не забудет
98-я церемония вручения «Оскара» запомнилась не только лауреатами, но и громким скандалом с ведущим The Game Awards Джеффом Кили. Поводом стал традиционный блок памяти «In Memoriam» — в нём не упомянули его отца, Дэвида Кили.
Сегодня в 21:50
249
0
Форум
Samsung уже стелет соломку на случай, если ИИ вдруг всем наскучит
Samsung уже стелет соломку на случай, если ИИ вдруг всем наскучит
В Samsung опасаются спада на рынке памяти, несмотря на текущий ажиотаж вокруг ИИ. В компании готовятся к тому, что период высокой прибыльности может смениться падением уже к концу десятилетия.
Сегодня в 21:05
203
2
Форум
Все потому, что я азиат! Глава игрового подразделения Disney подал иск на $40 миллионов из‑за расовой дискриминации
Все потому, что я азиат! Глава игрового подразделения Disney подал иск на $40 миллионов из‑за расовой дискриминации
Руководитель игрового подразделения Disney, отвечающий за такие культовые проекты, как Spider-Man и Star Wars, подал иск против компании на $40 миллионов, обвиняя её в дискриминации.
Сегодня в 19:40
256
6
Форум