Anthropic Identifies Three Product-Layer Changes Behind Claude Code Quality Decline, Not Model Issue

Gate News message, April 23 — Anthropic’s engineering team confirmed that the Claude Code quality degradation reported by users over the past month stemmed from three independent product-layer changes, not from API or underlying model issues. The three problems were fixed on April 7, April 10, and April 20 respectively, with the final version now at v2.1.116.

The first change occurred on March 4, when the team reduced the default reasoning effort level for Claude Code from “high” to “medium” to address occasional extreme latency spikes in Opus 4.6 under high reasoning intensity. After widespread user complaints about reduced performance, the team reverted the change on April 7. The current default is now “xhigh” for Opus 4.7 and “high” for other models.

The second issue was a bug introduced on March 26. The system was designed to clear old reasoning records after conversation inactivity exceeded one hour to reduce session recovery costs. However, a flaw in implementation caused the clearing to execute repeatedly on every subsequent turn rather than once, causing the model to progressively lose prior reasoning context. This manifested as increasing forgetfulness, repeated operations, and abnormal tool invocations. The bug also resulted in cache misses on every request, accelerating user quota consumption. Two unrelated internal experiments masked the reproduction conditions, extending the debugging process to over a week. After fixing on April 10, the team reviewed problematic code using Opus 4.7 and found that Opus 4.7 could identify the bug while Opus 4.6 could not.

The third change launched on April 16 alongside Opus 4.7. The team added instructions to the system prompt to reduce redundant output. Internal testing over several weeks showed no regression, but post-launch interaction with other prompts degraded coding quality. Extended evaluation revealed a 3% performance drop in both Opus 4.6 and 4.7, leading to a rollback on April 20.

These three changes affected different user groups at different times, and their combined effect created widespread and inconsistent quality decline, complicating diagnosis. Anthropic stated it will now require more internal employees to use the same public build version as users, run full model evaluation suites for every system prompt modification, and implement staged rollout periods. As compensation, Anthropic has reset usage quotas for all subscription users.

Penafian: Informasi di halaman ini dapat berasal dari pihak ketiga dan tidak mewakili pandangan atau opini Gate. Konten yang ditampilkan hanya untuk tujuan referensi dan bukan merupakan nasihat keuangan, investasi, atau hukum. Gate tidak menjamin keakuratan maupun kelengkapan informasi dan tidak bertanggung jawab atas kerugian apa pun yang timbul akibat penggunaan informasi ini. Investasi aset virtual memiliki risiko tinggi dan rentan terhadap volatilitas harga yang signifikan. Anda dapat kehilangan seluruh modal yang diinvestasikan. Harap pahami sepenuhnya risiko yang terkait dan buat keputusan secara bijak berdasarkan kondisi keuangan serta toleransi risiko Anda sendiri. Untuk detail lebih lanjut, silakan merujuk ke Penafian.

Artikel Terkait

Forefront Tech Menyelesaikan $100M Penetapan Harga IPO, Pencatatan Nasdaq di Bawah Kode FTHAU

Menurut ChainCatcher, perusahaan special purpose acquisition Forefront Tech menyelesaikan penetapan harga IPO senilai 100 juta dolar AS pada 30 April dan akan mencatatkan saham di Nasdaq dengan kode saham FTHAU. Perusahaan berencana menggunakan dana hasil penawaran untuk mengejar peluang merger dan akuisisi di blockchain, fintech, kecerdasan buatan

GateNews25menit yang lalu

Anthropic Claude Code Membebankan Pengguna Uang $200,98 karena Bug Penagihan, Awalnya Menolak Pengembalian Dana Sebelum Kompensasi Penuh

Menurut pemantauan Beating, sebuah bug penagihan pada layanan Claude Code milik Anthropic menyebabkan pelanggan Max 20x kelebihan biaya sebesar $200,98 untuk biaya penggunaan tambahan, padahal hanya menggunakan 13% kuota bulanan mereka. Bug tersebut dipicu ketika riwayat commit repositori git milik pengguna berisi huruf kapital

GateNews53menit yang lalu

DeepSeek Memperkenalkan Metode Visual Primitives untuk Meningkatkan Penalaran Multimodal pada 30 April

Menurut laporan teknis DeepSeek, pada 30 April, perusahaan memperkenalkan Visual Primitives, sebuah metode yang menyematkan unit visual dasar seperti titik dan kotak pembatas ke dalam rantai penalaran untuk mengatasi masalah Reference Gap pada tugas multimodal. Metode ini mengurangi konsumsi token gambar

GateNews1jam yang lalu

NVIDIA Rilis Bobot Model Utama Cosmos-Reason2-32B, Perluas Jendela Konteks hingga 256K Token

Menurut Beating, NVIDIA telah merilis bobot untuk Cosmos-Reason2-32B, versi unggulan dari model visi-bahasa penalaran AI fisiknya (VLM) yang dirancang untuk membantu robot dan sistem mengemudi otonom memahami prinsip spasial, temporal, dan fisik. Model dengan 32 miliar parameter,

GateNews1jam yang lalu

OpenAI Ungkap Mengapa Codex Dilarang Membahas “Goblin”: Hadiah Kepribadian Kutu Buku Tidak Terkendali

OpenAI di blog resmi menjelaskan Codex dilarang membahas makhluk seperti goblin, bersumber dari preferensi sinyal hadiah terhadap makhluk dalam pelatihan kepribadian tipe kutu buku, yang menyebabkan kontaminasi lintas kepribadian dan RLHF yang menyesatkan. Insiden ini terungkap setelah Barron Roth membocorkan instruksi sistem, lalu OpenAI menerapkan dua strategi: pengkodean keras jangka pendek dan pembersihan sinyal hadiah jangka panjang. Peristiwa ini memberi peringatan tentang kerapuhan desain hadiah, dan menuntut audit pasca-pelatihan yang lebih rinci.

ChainNewsAbmedia2jam yang lalu

Alibaba Open-Source Modul Interpretabilitas Qwen-Scope Qwen Mencakup 7 Model pada 30 April

Menurut PANews, pada 30 April, Alibaba’s Qwen mengumumkan open-source Qwen-Scope, sebuah modul interpretabilitas yang dilatih pada model seri Qwen3 dan Qwen3.5. Rilis ini mencakup 7 model bahasa besar dalam varian dense dan mixture-of-experts, dengan 14 set sparse autoencoder

GateNews2jam yang lalu
Komentar
0/400
Tidak ada komentar