Resultados da pesquisa de "CODE"
2026-04-30
11:29

O código Claude da Anthropic cobrou a um utilizador a mais 200,98 dólares devido a um erro de faturação, tendo inicialmente recusado o reembolso antes de uma compensação total

De acordo com o monitorização da Beating, um erro de faturação no serviço Claude Code da Anthropic fez com que um subscritor do Max 20x fosse cobrado a mais 200,98 USD em taxas adicionais de utilização, apesar de apenas utilizar 13% da sua quota mensal. O bug foi despoletado quando o histórico de commits do repositório git de um utilizador continha o caractere em maiúscula
Mais
00:57

Zhipu Z.ai estende a promoção tripla de quota do Plano GLM Coding até 30 de junho

Mensagem de Gate News, 28 de abril — A Zhipu Z.ai anunciou uma extensão da promoção tripla de quota do seu Plano GLM Coding, originalmente com prazo até 30 de abril, para 30 de junho, abrangendo tanto os modelos GLM-5.1 como GLM-5-Turbo. A promoção está disponível no horário de Leste das 6:00 à 2:00 da madrugada do dia seguinte. O Plano GLM Coding é um serviço de subscrição para programadores que permite aos utilizadores invocar modelos GLM dentro de ferramentas de programação, incluindo Claude Code, Cursor e OpenCode. A promoção tripla de quota foi inicialmente lançada a 16 de março, com cobertura limitada ao GLM-5-Turbo; mais tarde expandiu-se para incluir ambos os modelos após o lançamento do GLM-5.1.
Mais
05:17

GPT-5.5 Regressa ao Estado da Arte na Codificação, mas a OpenAI Muda os Benchmarks Depois de Perder para o Opus 4.7

Gate News mensagem, 27 de Abril — A SemiAnalysis, uma empresa de análise de semicondutores e IA, publicou um benchmark comparativo de assistentes de codificação, incluindo GPT-5.5, Claude Opus 4.7 e DeepSeek V4. A principal conclusão: GPT-5.5 marca o primeiro regresso da OpenAI ao estado da arte em modelos de codificação em seis meses, com engenheiros da SemiAnalysis agora a alternar entre Codex e Claude Code após antes dependerem quase exclusivamente de Claude. O GPT-5.5 baseia-se numa nova abordagem de pré-treinamento com o nome de código "Spud" e representa a primeira expansão do OpenAI da escala de pré-treinamento desde o GPT-4.5. Em testes práticos, surgiu uma divisão clara de responsabilidades. Claude trata do planeamento de novos projectos e da configuração inicial, enquanto Codex se destaca em correcções de bugs que exigem raciocínio intensivo. O Codex mostra uma compreensão mais forte de estruturas de dados e raciocínio lógico, mas tem dificuldades em inferir intenções de utilizador ambíguas. Numa tarefa única no mesmo painel, o Claude replicou automaticamente o layout da página de referência, mas fabricou grandes quantidades de dados; já o Codex ignorou o layout, mas entregou dados significativamente mais precisos. A análise revela um detalhe de manipulação do benchmark: um post de Fevereiro da OpenAI incentivava a indústria a adoptar o SWE-bench Pro como o novo padrão para benchmarks de codificação. No entanto, o anúncio do GPT-5.5 mudou para um novo benchmark chamado "Expert-SWE." O motivo, escondido nas letras pequenas, é que o GPT-5.5 foi ultrapassado pelo Opus 4.7 no SWE-bench Pro e ficou muito aquém do Mythos 77.8%, ainda não lançado da Anthropic. Quanto ao Opus 4.7, a Anthropic publicou uma análise pós-mortem uma semana após o lançamento, reconhecendo três bugs no Claude Code que persistiram por várias semanas de Março a Abril, afectando quase todos os utilizadores. Vários engenheiros tinham previamente reportado degradação de desempenho na versão 4.6, mas foram descartados como observações subjectivas. Além disso, o novo tokenizador do Opus 4.7 aumenta o uso de tokens em até 35%, o que a Anthropic admitiu abertamente — constituindo, na prática, um aumento de preço oculto. O DeepSeek V4 foi avaliado como "acompanhar o ritmo da fronteira, mas não liderar," posicionando-se como a alternativa de menor custo entre os modelos de código fechado. A análise também notou que "o Claude continua a superar o DeepSeek V4 Pro em tarefas de escrita chinesa de alta dificuldade," comentando que "o Claude venceu o modelo chinês na sua própria língua." O artigo introduz um conceito-chave: a precificação do modelo deve ser avaliada por "custo por tarefa" e não por "custo por token." A precificação do GPT-5.5 é o dobro da do GPT-5.4 input $5, output por milhão de tokens, mas conclui as mesmas tarefas usando menos tokens, pelo que o custo real não é necessariamente mais alto. Os dados iniciais da SemiAnalysis mostram que a razão input-para-output do Codex é de 80:1, inferior à do Claude Code, que é de 100:1.
Mais
03:53
1

O Ministro dos Negócios Estrangeiros de Singapura usa um Assistente de IA Personalizado no Raspberry Pi com Claude Code

Mensagem do Gate News, 27 de abril — o ministro dos Negócios Estrangeiros de Singapura, Vivian Balakrishnan, anunciou recentemente que construiu um sistema personalizado de assistente de IA, que ele chama de "segundo cérebro do diplomata", a correr num Raspberry Pi 5 (um microcomputador do tamanho de um cartão de crédito). O sistema integra-se com o WhatsApp e
Mais
08:33

A Anthropic Lança /ultrareview para o Claude Code: Revisão de Código em Nuvem com Vários Agentes

Mensagem do Gate News, 23 de abril — A Anthropic introduziu /ultrareview (research preview), uma funcionalidade de revisão de código multi-agente baseada na nuvem para o Claude Code. Os utilizadores podem escrever /ultrareview na CLI para iniciar um conjunto de agentes de revisão numa sandbox remota que trabalham em paralelo para analisar diffs entre a
Mais
07:05

A remoção do Claude Code da Anthropic provoca reação negativa dos programadores; a OpenAI ganha apoio da comunidade

A Anthropic remove o Claude Code do plano Pro, gerando críticas à medida que os programadores migram para a OpenAI; o Codex continua gratuito/básico, o GPT-5.4 e o Image 2.0 melhoram o desempenho, impulsionando uma grande migração de utilizadores. Resumo: O artigo analisa a remoção do Claude Code do plano $20 Pro pela Anthropic, o que desencadeia uma reação negativa por parte de programadores que o descrevem como um aumento de preço oculto e um risco de fiabilidade. Contrasta esta medida com a política da OpenAI de manter o Codex nos escalões gratuitos e básicos, ao mesmo tempo que destaca um forte desempenho dos modelos do GPT-5.4 e do ChatGPT Images 2.0, e assinala uma migração rápida de utilizadores para a OpenAI, com o Codex supostamente a ultrapassar 4 milhões de utilizadores ativos semanais.
Mais
06:36

Vazamento do Anthropic Claude Code com 510.000 linhas, plano de IPO de 350 mil milhões de dólares é afetado

A Anthropic revelou acidentalmente a 31 de março 512 mil linhas de código-fonte do Claude Code, o que suscitou riscos de segurança e preocupações com a avaliação do mercado. Após esta fuga, o código espalhou-se rapidamente pelo GitHub e levou a remoções ao abrigo do DMCA. O conteúdo divulgado revelou funcionalidades internas e detalhes ainda não divulgados, expondo riscos de segurança que a empresa enfrenta. O caso sublinha a necessidade de as empresas de IA reforçarem a segurança do código e a gestão de permissões, podendo simultaneamente afetar as perspetivas de listagem da Anthropic.
Mais