Hasil pencarian untuk "CODE"
2026-04-30
00:57

Zhipu Z.ai Memperpanjang Promosi Kuota Tiga Kali Lipat Program Coding GLM hingga 30 Juni

Pesan Berita Gate, 28 April — Zhipu Z.ai mengumumkan perpanjangan promosi kuota tiga kali lipat Program Coding GLM dari tenggat awal 30 April menjadi 30 Juni, mencakup baik model GLM-5.1 maupun GLM-5-Turbo. Promosi ini tersedia pada Waktu Timur pukul 6:00 AM hingga 2:00 AM pada hari berikutnya. Program Coding GLM adalah layanan berlangganan untuk pengembang yang memungkinkan pengguna memanggil model GLM dalam alat pemrograman termasuk Claude Code, Cursor, dan OpenCode. Promosi kuota tiga kali lipat pertama kali diluncurkan pada 16 Maret dengan cakupan yang terbatas pada GLM-5-Turbo, kemudian diperluas untuk mencakup kedua model setelah rilis GLM-5.1.
Lainnya
05:17

GPT-5.5 Kembali ke Ujung Terdepan dalam Coding, Tapi OpenAI Mengganti Benchmark Setelah Kalah dari Opus 4.7

Berita Gate tanggal 27 April — SemiAnalysis, sebuah firma analisis semikonduktor dan AI, merilis benchmark perbandingan asisten coding yang mencakup GPT-5.5, Claude Opus 4.7, dan DeepSeek V4. Temuan utamanya: GPT-5.5 menandai kembalinya pertama OpenAI ke ujung terdepan dalam model coding dalam enam bulan, dengan insinyur SemiAnalysis kini bergantian antara Codex dan Claude Code setelah sebelumnya hampir sepenuhnya mengandalkan Claude. GPT-5.5 didasarkan pada pendekatan pra-pelatihan baru yang diberi kode "Spud" dan merupakan ekspansi pertama OpenAI dalam skala pra-pelatihan sejak GPT-4.5. Dalam pengujian praktis, muncul pembagian kerja yang jelas. Claude menangani perencanaan proyek baru dan penyiapan awal, sementara Codex unggul pada perbaikan bug yang membutuhkan penalaran intensif. Codex menunjukkan pemahaman yang lebih kuat tentang struktur data dan penalaran logis, tetapi kesulitan menyimpulkan maksud pengguna yang ambigu. Pada satu tugas di satu dasbor, Claude secara otomatis meniru tata letak halaman referensi tetapi memalsukan dalam jumlah besar data, sedangkan Codex melewatkan tata letak tetapi menyajikan data yang jauh lebih akurat. Analisis mengungkap detail manipulasi benchmark: posting blog OpenAI pada Februari mendorong industri untuk mengadopsi SWE-bench Pro sebagai standar baru untuk benchmark coding. Namun, pengumuman GPT-5.5 beralih ke benchmark baru yang disebut "Expert-SWE." Alasannya, yang terselip dalam catatan kecil, adalah bahwa GPT-5.5 disalip oleh Opus 4.7 pada SWE-bench Pro dan tertinggal jauh dari Mythos 77.8% yang belum dirilis Anthropic. Terkait Opus 4.7, Anthropic menerbitkan analisis pasca-kematian satu minggu setelah rilis, mengakui tiga bug dalam Claude Code yang bertahan selama beberapa minggu dari Maret hingga April, dan memengaruhi hampir semua pengguna. Beberapa insinyur sebelumnya telah melaporkan penurunan performa pada versi 4.6, tetapi diabaikan sebagai pengamatan subjektif. Selain itu, tokenizer baru Opus 4.7 meningkatkan penggunaan token hingga 35%, yang secara terbuka diakui Anthropic—secara efektif merupakan kenaikan harga yang tersembunyi. DeepSeek V4 dinilai sebagai "mampu menyamai laju dengan yang di garis depan tetapi tidak memimpin," dengan memposisikan dirinya sebagai alternatif berbiaya terendah di antara model sumber tertutup. Analisis juga mencatat bahwa "Claude terus mengungguli DeepSeek V4 Pro pada tugas penulisan bahasa Tionghoa dengan kesulitan tinggi," dengan komentar bahwa "Claude menang melawan model Tionghoa di bahasa aslinya." Artikel ini memperkenalkan konsep kunci: harga model harus dievaluasi berdasarkan "biaya per tugas" bukan "biaya per token." Harga GPT-5.5 dua kali lipat dari GPT-5.4 input $5, output per million tokens, tetapi ia menyelesaikan tugas yang sama dengan token yang lebih sedikit, sehingga biaya aktualnya tidak harus lebih tinggi. Data awal SemiAnalysis menunjukkan rasio input-ke-output Codex sebesar 80:1, lebih rendah daripada rasio Claude Code 100:1.
Lainnya
08:33

Anthropic Meluncurkan /ultrareview untuk Claude Code: Peninjauan Kode Berbasis Cloud Multi-Agen

Pesan dari Gate News, 23 April — Anthropic telah memperkenalkan /ultrareview (research preview), sebuah fitur peninjauan kode multi-agen berbasis cloud untuk Claude Code. Pengguna dapat mengetik /ultrareview di CLI untuk menjalankan sekelompok agen peninjau dalam sandbox jarak jauh yang bekerja secara paralel untuk memeriksa perbedaan (diff) antara cabang saat ini dan cabang default termasuk perubahan yang belum di-commit, atau meninjau langsung GitHub PR dengan memberikan nomor PR. Seluruh proses tidak memerlukan sumber daya lokal dan biasanya memakan waktu 5 hingga 10 menit, dengan hasil dikembalikan ke sesi sebagai notifikasi.
Lainnya
07:05

Penghapusan Claude Code Anthropic Memicu Reaksi Balik dari Pengembang; OpenAI Mendapat Dukungan Komunitas

Anthropic 从 Pro 方案中移除 Claude Code,因开发者转向 OpenAI 而遭到批评;Codex 仍保持免费/基础,GPT-5.4 和 Image 2.0 提升性能,推动大量用户迁移。 Ringkasan: Artikel ini membahas penghapusan Claude Code dari paket $20 Pro oleh Anthropic, yang memicu reaksi balik dari para pengembang yang menyebutnya sebagai kenaikan harga yang terselubung dan risiko reliabilitas. Artikel ini membandingkan langkah tersebut dengan kebijakan OpenAI untuk mempertahankan Codex di level gratis dan dasar, sekaligus menyoroti performa model yang kuat dari GPT-5.4 dan ChatGPT Images 2.0, serta mencatat migrasi pengguna yang cepat ke OpenAI, dengan Codex dilaporkan melampaui 4 juta pengguna aktif mingguan.
Lainnya
06:45

Perselisihan Kebijakan OpenClaw Claude CLI: Salah Tafsir Steinberger atas Pernyataan Anthropic, Bukan Perubahan Kebijakan

Pesan Gate News, 22 April — Menurut klarifikasi dari platform tersebut, Anthropic belum melonggarkan kebijakannya terkait penggunaan Claude CLI untuk alat pihak ketiga seperti OpenClaw. Perubahan kebijakan yang tampak itu ternyata merupakan salah tafsir oleh pendiri OpenClaw, Peter Steinberger, terhadap sebuah pernyataan yang dibuat oleh pimpinan Claude Code, Boris Cherny
Lainnya