Site icon AppTractor

Anthropic «ослабляет» Claude?

Растущее число разработчиков и продвинутых пользователей ИИ обвиняют Anthropic в ухудшении работы моделей Claude Opus 4.6 и Claude Code — либо намеренно, либо из-за ограничений вычислительных ресурсов. По их словам, флагманская модель для программирования стала менее способной, менее надёжной и более «прожорливой» к токенам по сравнению с тем, что было ещё несколько недель назад.

Жалобы быстро распространились на GitHub, X и Reddit. Пользователи утверждают, что Claude стал хуже справляться с длительным рассуждением, чаще бросает задачи на полпути и склонен к галлюцинациям и противоречиям.

Некоторые называют это «AI shrinkflation» — ситуацией, когда пользователи платят столько же, но получают более слабый продукт. Другие предполагают, что Anthropic может искусственно ограничивать («душить») модель в периоды высокой нагрузки.

Эти утверждения не доказаны, и сотрудники Anthropic публично отрицают намеренное ухудшение моделей для управления нагрузкой. При этом компания признаёт, что в последние недели были реальные изменения лимитов использования и настроек рассуждения, что усилило споры.

Жалобы становятся вирусными — в том числе от топ-менеджера AMD

Одна из самых подробных жалоб появилась 2 апреля 2026 года в GitHub-issue от Стеллы Лауренцо — старшего директора AI-направления в AMD.

Она заявила, что Claude Code деградировал до уровня, при котором ему нельзя доверять сложную инженерную работу. В подтверждение она проанализировала:

По её данным, начиная с февраля:

Главная мысль: для сложной инженерной работы глубокое рассуждение — не роскошь, а необходимость.

Пост быстро стал вирусным, особенно после распространения в X, где пользователи начали активно делиться скриншотами и обсуждать «ухудшение Claude».

Ответ Anthropic: дело не в деградации модели

Руководитель Claude Code Борис Черный поблагодарил за анализ, но не согласился с выводами. Он пояснил, что упомянутый в обсуждении параметр redact-thinking-2026-02-12 — это изменение интерфейса, скрывающее «мышление» модели для снижения задержек и это не влияет на сам процесс рассуждения или его бюджет

Также он указал на два ключевых изменения продукта. 9 февраля — включение адаптивного мышления по умолчанию. 3 марта — установка уровня усилия (effort) по умолчанию на средний (85).

По словам Anthropic, это оптимальный баланс между качеством, скоростью и стоимостью. При этом пользователи могут увеличить глубину рассуждений вручную, используя команду /effort high в Claude Code.

В чём суть конфликта

Критики утверждают, что поведение модели в реальных задачах стало хуже — и приводят данные логов и паттернов использования. Anthropic отвечает: изменения есть, но это изменения интерфейса и настроек по умолчанию, а не «тайное ухудшение» модели.

Технически это важное различие. Но для пользователей, которые получают худший результат, оно не всегда выглядит убедительно.

Вирусные посты и «минус 67% интеллекта»

Ситуацию еще усугубили публикации в соцсетях. Например, разработчик Ом Патель заявил, что кто-то «реально измерил» деградацию Claude и оценил её в 67%. Этот пост помог популяризировать термин «AI shrinkflation» и вывел обсуждение за пределы узкого круга пользователей Claude Code.

Жалобы сходятся в одном:

Особенно громким стало заявление от BridgeMind (бенчмарк BridgeBench):

Это было подано как доказательство того, что Claude Opus 4.6 «ослаблен». Другие пользователи также публиковали тесты, показывающие, что Opus 4.6 уступает Opus 4.5 в реальных задачах программирования.

Итог

Ситуация стала резонансной, потому что субъективные жалобы совпали с «объективными» скриншотами бенчмарков и данные, тесты и пользовательский опыт начали усиливать друг друга.

Важно, однако, что такие сравнения могут быть сложнее, чем кажутся, и не всегда дают полную картину.

Exit mobile version