Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Pre-IPOs
Desbloquear acesso completo a IPO de ações globais
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
A Google DeepMind Forma Força-Tarefa de Programação para Competir com a Anthropic, Brin Supervisiona Pessoalmente os Esforços
De acordo com o monitorização da Dongcha Beating, The Information cita três fontes informadas afirmando que o Google DeepMind formou uma força-tarefa composta por investigadores e engenheiros especificamente voltada para melhorar as capacidades do seu modelo de codificação. A força-tarefa é liderada pelo engenheiro de investigação do DeepMind Sebastian Borgeaud, que anteriormente supervisionou os esforços de pré-treinamento do DeepMind; o cofundador Sergey Brin e o CTO do DeepMind Koray Kavukcuoglu também estão diretamente envolvidos. O gatilho imediato para a formação da equipa foi o recente lançamento de modelo da Anthropic. Investigadores internos do DeepMind acreditam que as ferramentas de codificação da Anthropic superaram as capacidades de geração de código do Gemini. Numa nota recente, Brin escreveu que a equipa deve “fechar urgentemente a lacuna nas capacidades de execução de agentes e transformar o modelo num desenvolvedor principal para escrever código” para vencer esta última corrida. “Agente” refere-se a IA capaz de lidar com tarefas de múltiplos passos. A lacuna tem números específicos: Boris Cherny, chefe do Claude Code da Anthropic, afirmou em janeiro que a empresa tem “quase 100%” do seu código escrito por IA; a CFO do Google, Anat Ashkenazi, mencionou na chamada de resultados de fevereiro que os agentes de codificação do Google lidam com apenas cerca de 50% do trabalho de codificação internamente. A força-tarefa concentra-se em tarefas de codificação de ciclo longo, como escrever novo software do zero, que requer que o modelo leia múltiplos ficheiros e compreenda a intenção do utilizador, representando o aspeto mais desafiante das ferramentas de codificação de IA atuais. O corpus de treino também está a ser ajustado: o Google começou a usar a sua base de código privada para treinar modelos, pois o código interno difere significativamente do código público, e os modelos de codificação gerais não funcionam bem em projetos internos. Estes modelos treinados internamente não podem ser lançados externamente, mas podem ajudar a iterar versões disponíveis ao público. No que diz respeito à promoção interna, o Google criou uma tabela de classificação para o uso de uma ferramenta de codificação interna chamada Jetski; algumas equipas fora do DeepMind começaram a organizar formações obrigatórias de IA. No memorando, Brin exige que cada engenheiro do Gemini utilize o agente interno ao realizar tarefas complexas de múltiplos passos. O objetivo a longo prazo é o que Brin chama de “arranque de IA”, ou seja, IA autoaperfeiçoável. Ele tem repetidamente dito aos funcionários que melhorar as capacidades de codificação é fundamental para atingir esta fase; juntamente com IA que possa realizar matemática e conduzir experimentos, isso permite, teoricamente, uma automação em larga escala do trabalho de investigadores e engenheiros de IA. A OpenAI já possui ferramentas internas semelhantes para ajudar investigadores a gerar código experimental mais rapidamente.