Компания Anthropic представила новую версию своей языковой модели — Claude Opus 4.7. Обновление вышло всего через два месяца после предыдущей версии и сосредоточено на одном ключевом направлении: способности модели самостоятельно решать сложные задачи без постоянного контроля человека.
В конце прошлого месяца в сети обсуждали утечку о якобы новой модели компании Anthropic под названием Claude Mythos, которую называли самой мощной разработкой студии. Тогда многие восприняли это скептически, но ситуация изменилась после того, как спустя пару недель компания случайно раскрыла исходный код Claude Code.
Вторичный рынок акций Anthropic переживает резкий всплеск интереса со стороны инвесторов. По данным представителей инвестиционного сектора, спрос на бумаги компании заметно превышает предложение, а общий объём потенциальных вложений может достигать 2 миллиардов долларов.
ИИ-стартап Anthropic намерен подать в суд на правительство США после решения Министерства обороны включить компанию в список организаций, представляющих риск для цепочки поставок. Такой статус запрещает Пентагону и его подрядчикам использовать технологии компании.
В феврале президент Трамп опубликовал в Truth Social пост с требованием к федеральным ведомствам «немедленно прекратить использование технологий Anthropic». Причиной стали острые разногласия между Министерством обороны и компанией.
Президент США Дональд Трамп распорядился прекратить использование продуктов компании Anthropic, включая ИИ‑систему Claude, во всех федеральных ведомствах. Указ предусматривает шестимесячный переходный период — за это время госорганы, в том числе Министерство обороны, должны перейти на альтернативные решения.
Компания Anthropic, разработчик семейства нейросетей Claude, не согласится на требования Министерства обороны США снять ограничения на использование своих моделей в военных целях. Ранее глава Минобороны Пит Хегсет поставил компании ультиматум: он потребовал устранить все ограничения, пригрозив в противном случае отказаться от контракта на 200 миллионов долларов.
Хакер использовал чат‑бота Claude от Anthropic для массированной кибератаки на правительственные учреждения Мексики. По данным Bloomberg, в результате было похищено 150 гигабайт конфиденциальной информации. Атака длилась около месяца, начиная с декабря прошлого года.
Компания Anthropic выступила с заявлением, в котором обвинила три китайские организации — DeepSeek, Moonshot и MiniMax — в проведении масштабных атак на свою ИИ‑модель Claude. По версии компании, целью злоумышленников было незаконное извлечение возможностей модели для обучения собственных систем.
Министерство обороны США и компания‑разработчик ИИ‑технологий Anthropic не могут прийти к согласию по вопросу использования нейросети Claude в военных целях. Как сообщает Axios со ссылкой на источники, разногласия касаются принципов применения искусственного интеллекта в оборонной сфере.
Мринанк Шарма, ранее руководивший командой Safeguards Research Team в компании Anthropic, покинул должность весьма неординарным образом. Он опубликовал в социальной сети увольнительное письмо, которое уже называют одним из самых необычных в истории IT‑сектора.
Компания Anthropic представила обновлённую версию «конституции» для своего ИИ‑ассистента Claude — документа, определяющего ценностные ориентиры и поведенческие рамки модели. Ключевое изменение заключается в отказе от жёстких, детализированных правил в пользу широких принципов, которые должны научить ИИ принимать решения в разнообразных ситуациях.
Суд США отклонил мировое соглашение Anthropic на $1,5 млрд с авторами книг, чьи работы использовали для обучения ИИ. Суд счёл условия несправедливыми: нет списка авторов, механизма выплат и уведомлений. Компания обязана доработать документы для повторного рассмотрения.
Компания Anthropic достигла исторического соглашения по урегулированию коллективного иска, связанного с использованием защищенных авторским правом материалов при обучении ИИ-модели Claude. Общая сумма компенсации составит 1,5 миллиарда долларов.