Повідомлення Gate News, 23 квітня — інженерна команда Anthropic підтвердила, що погіршення якості Claude Code, про яке повідомляли користувачі протягом минулого місяця, було спричинене трьома незалежними змінами на рівні продукту, а не проблемами API чи базової моделі. Три проблеми були виправлені відповідно 7 квітня, 10 квітня та 20 квітня, а нинішня фінальна версія має v2.1.116.
Перша зміна сталася 4 березня, коли команда зменшила рівень зусиль за замовчуванням для міркувань Claude Code з “high” до “medium”, щоб усунути епізодичні надмірні піки затримок у Opus 4.6 за високої інтенсивності міркувань. Після численних скарг користувачів на зниження продуктивності команда повернула цю зміну 7 квітня. Нині поточне значення за замовчуванням — “xhigh” для Opus 4.7 і “high” для інших моделей.
Друга проблема була багом, внесеним 26 березня. Система була спроєктована очищати старі записи міркувань після того, як бездіяльність у розмові перевищувала одну годину, щоб зменшити витрати на відновлення сесії. Однак недолік у реалізації спричинив те, що очищення виконувалося повторно на кожному наступному ході, а не один раз, через що модель поступово втрачала попередній контекст міркувань. Це проявлялося як зростаюча забудькуватість, повторювані операції та ненормальні виклики інструментів. Баг також спричинив збіги кешу на кожен запит, пришвидшуючи витрачання квот користувачів. Два не пов’язані з цим внутрішні експерименти приховали умови відтворення, розтягнувши процес дебагу більш ніж на тиждень. Після виправлення 10 квітня команда переглянула проблемний код, використовуючи Opus 4.7, і виявила, що Opus 4.7 може ідентифікувати цей баг, тоді як Opus 4.6 — ні.
Третя зміна була запущена 16 квітня разом із Opus 4.7. Команда додала інструкції до системного промпту, щоб зменшити надмірний повторюваний вивід. Внутрішнє тестування протягом кількох тижнів показало відсутність регресії, але після запуску взаємодія з іншими промптами погіршила якість кодування. Розширене оцінювання виявило 3% падіння продуктивності в обох випадках — Opus 4.6 і 4.7 — що призвело до відкату 20 квітня.
Ці три зміни вплинули на різні групи користувачів у різний час, а їхня сукупна дія спричинила поширене та непослідовне падіння якості, ускладнивши діагностику. У Anthropic заявили, що тепер для використання того самого публічного номера версії збірки, що й у користувачів, знадобиться задіяти більше внутрішніх співробітників, виконувати повні комплекти оцінювання моделей для кожної модифікації системного промпту та впроваджувати етапні періоди розгортання. Як компенсацію, Anthropic скинув квоти використання для всіх передплатників.
Пов'язані статті
AI-фінансова платформа Rogo залучила $160M у Серії D під керівництвом Kleiner Perkins менш ніж за 3 місяці
29 квітня Китай блокує придбання Manus AI, яке підтримує Meta, посилаючись на занепокоєння щодо технологічної та даних безпеки
Alibaba Cloud знизила ціну неявного кешу DeepSeek-V4-Pro до 1 юаня за мільйон токенів 29 квітня
AI-платформа Certifyde залучає $2M у seed-фінансуванні за участі CEO Ripple Бреда Гарлінгхауса
DeepSeek запускає функцію розпізнавання зображень у режимі бета-тестування
Anthropic запускає 8 конекторів творчих інструментів для Claude, зокрема Blender, Adobe, Autodesk