Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Pre-IPOs
Desbloquear acesso completo a IPO de ações globais
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
O Google mira publicamente a uma rede de centros de dados de grande escala de 'IA de agente' chamada 'Vergo'... reforçando a capacidade de lidar com atrasos e falhas
O Google anunciou uma rede de centros de dados de grande escala e infraestrutura multi-nuvem para a era da ‘Inteligência Artificial Agente (Agentic AI)’. À medida que ambientes de IA que chamam ferramentas externas em milissegundos se tornam cada vez mais comuns, a competição por infraestrutura que reduza a latência e processe operações em larga escala de forma estável está em pleno andamento.
No dia 24, o Google lançou seu novo sistema de rede de infraestrutura de IA, ‘Virgo Network’. Este sistema visa melhorar a velocidade de comunicação geral entre os centros de dados, incluindo clusters de aceleradores, memória, recursos de computação e armazenamento que se conectam de forma recíproca.
O núcleo está na estrutura de rede ‘planar’. Este método reduz o gargalo ao diminuir o número de camadas pelos quais os dados passam durante a transmissão. Segundo o Google, a Virgo Network pode conectar até 134.000.000 de chips, incluindo o processador TPU 8t de 8ª geração usado para treinamento. Sua largura de banda bidirecional pode atingir até 47 petabits por segundo (Pbps). A empresa afirmou que, em comparação com a geração anterior, a largura de banda por acelerador aumentou mais de 4 vezes.
Uma parte notável do anúncio é que, além da simples competição de velocidade, há uma ênfase total na ‘resiliência’. Em clusters de IA de escala ultragrande, falhas, latência e queda de velocidade de alguns dispositivos são quase inevitáveis. O Google afirmou que, para resolver esse problema, eles combinaram uma funcionalidade de ‘visibilidade’ que observa detalhadamente o estado geral da rede com softwares de desvio e recuperação automáticos. Além disso, aplicaram uma camada de troca independente para garantir que, mesmo com atrasos ou falhas na rede, o throughput geral não oscile drasticamente.
O Google descreve a Virgo Network como algo que não é uma simples expansão de centros de dados existentes, mas um produto de infraestrutura independente, cujo conceito de design é ‘ projetar toda a instalação como um supercomputador’. A empresa defende que, monitorando o sistema em menos de 1 milissegundo, é possível otimizar problemas de congestionamento instantâneo e gerenciamento de buffers durante todo o hardware e software. Isso é especialmente importante em ambientes onde IA agente precisa lidar simultaneamente com chamadas de ferramentas, raciocínio e tarefas de geração aprimorada por recuperação de informações (RAG).
Lançamento simultâneo de camadas de conexão e segurança que rompem fronteiras de nuvem
Além da rede de centros de dados, o Google também lançou camadas de conexão em nuvem e segurança voltadas para cargas de trabalho de IA agente. A empresa resumiu essa atualização em quatro pilares: ‘Cálculo Flexível’, ‘Conexão Segura Multi-Nuvem’, ‘Camada de Dados Unificada’ e ‘Soberania Digital’.
Primeiro, ‘Cálculo Flexível’ é uma arquitetura destinada a lidar de forma mais eficiente com as flutuações na demanda de agentes de IA. Como os serviços de IA frequentemente enfrentam picos de solicitações momentâneas, o Google explicou que aumentou a acessibilidade às CPUs para responder de forma mais rápida e econômica a essas demandas. Em particular, a arquitetura oferece recursos de CPU otimizados para tarefas como raciocínio, orquestração de agentes e geração aprimorada por recuperação, complementando a insuficiência de GPUs.
Para isso, o Google aplicou CPUs C4N e M4N em máquinas virtuais (VMs) baseadas no Google Compute Engine e Google Kubernetes Service. Segundo a empresa, esse sistema consegue processar até 95 milhões de pacotes de dados por segundo, até 40% mais rápido do que os principais provedores de nuvem de grande escala.
Na área de conexão segura multi-nuvem, o ‘Gateway de Agentes’ ocupa uma posição central. Este controlador monitora o acesso dos agentes de IA e controla fundamentalmente protocolos como o de contexto do modelo (MCP) e o protocolo entre agentes (A2A). A explicação indica que esse gateway garante, em ambientes multi-nuvem, que o fluxo de dados entre diferentes redes seja visível e protegido.
‘IA na direção dos dados, não a transferência de dados’
A camada de dados unificada foca em permitir que a IA compreenda e utilize diretamente dados dispersos em múltiplos repositórios empresariais. O Google afirmou que a ‘Armazenagem Inteligente’ injeta metadados nos objetos de dados, transformando os tradicionais ‘dados estáticos’ em ativos de conhecimento legíveis por IA.
Uma vez estabelecida essa arquitetura, ela pode aplicar buscas semânticas a informações em formatos diversos, como planilhas, documentos, PDFs e imagens, além de realizar anotações automáticas e extração de insights. Essa abordagem visa reduzir o fenômeno de ‘ilhas’ de dados presos em repositórios específicos, ajudando os agentes de IA a encontrar informações necessárias mais rapidamente.
O ‘Catálogo de Conhecimento’ divulgado conecta o conhecimento interno da empresa em forma gráfica, ajudando os agentes de IA a entender melhor os processos de negócios e o contexto. O Google enfatiza que, por meio dessa abordagem, é possível otimizar o aprendizado e a resposta da IA sem mover dados separadamente. Em outras palavras, a estratégia não é transferir dados para um local central, mas permitir que os modelos de IA operem no ‘ambiente privado’ onde os dados estão armazenados.
Este lançamento indica que o foco da competição em IA está mudando rapidamente de desempenho de modelos para infraestrutura de rede, segurança e dados que suportam a operação desses modelos. Especialmente com a introdução oficial da IA agente nos negócios, baixa latência, alta resiliência e gestão multi-nuvem podem se tornar as principais vantagens competitivas. Essa iniciativa do Google é interpretada como um sinal de que a competição entre grandes empresas de tecnologia por liderança em infraestrutura de IA está se intensificando.