Google, Extensão de implantação local do Gemini... Será que é possível resolver o conflito entre "controle vs desempenho" na infraestrutura de IA empresarial

robot
Geração de resumo em curso

html

Superando a era da IA generativa, a “IA de agente” capaz de executar tarefas autonomamente já chegou, e os padrões de design de infraestrutura empresarial estão mudando rapidamente. Especialmente em setores regulados, órgãos governamentais e empresas com forte exigência de soberania de dados, há uma demanda por uma infraestrutura “pronta para IA” que permita rodar os modelos de IA mais recentes em ambientes internos, sem precisar transferir dados sensíveis para fora.

Para atender a essas necessidades, a Google está expandindo sua estratégia de infraestrutura, permitindo que empresas utilizem seus próprios modelos de IA e tecnologias de nuvem em ambientes locais. Muninder Sambi, vice-presidente e gerente geral do departamento de redes e segurança da Google, afirmou recentemente no Google Cloud Next: “As empresas sempre enfrentaram a escolha de cumprir soberania e regulamentações ou abrir mão desses princípios e migrar para a nuvem. A nuvem distribuída da Google é exatamente a solução que traz o Gemini e as capacidades de IA da Google para ambientes locais.”

Gemini em parceria com NVIDIA, Dell, expandindo para redes internas

A Google colaborou com NVIDIA ($NVDA) e Dell Technologies ($DELL) para suportar a execução de modelos baseados em Gemini em ambientes isolados da rede pública, como ambientes de “air-gapped” e ambientes locais conectados à internet. Em particular, o modelo Gemini Flash, que já suporta implantação local baseada em GPUs NVIDIA Blackwell B200 e B300. Para as empresas, isso significa poder rodar cargas de trabalho de “IA soberana” sem vazamento de dados.

Sambi destacou que isso não é apenas fornecer uma “fábrica de IA”, mas oferecer um “motor de IA” que permita às empresas construir seus próprios sistemas de produção de IA. Para setores como finanças, saúde, defesa e setor público, que enfrentam dificuldades com a utilização de nuvem, essa é uma mudança que certamente merece atenção.

Kubernetes se torna o sistema operacional da era da IA

Com a expansão da infraestrutura de IA local, o papel do Kubernetes também se torna cada vez mais importante. Drew Bradstock, diretor sênior de produtos do Google Kubernetes e Google Compute Engine, avaliou que o Kubernetes hoje desempenha o papel de um “sistema operacional” para tarefas de IA, incluindo treinamento, inferência e aprendizado por reforço.

Ele explicou que, no início da popularização de grandes modelos de linguagem, ainda não era claro se o Kubernetes poderia se tornar o núcleo de controle da IA, mas, com a rápida evolução do ecossistema de código aberto em direção a uma maior compatibilidade com IA, ele se tornou a base para rodar agentes em ambientes híbridos. Diante do desejo das empresas de implantar serviços de IA em múltiplos ambientes, os benefícios da padronização do Kubernetes se destacam novamente.

Agora, os usuários não se limitam mais a humanos

A disseminação da IA de agente não só muda a forma como a infraestrutura opera, mas também está transformando a filosofia do design de produtos. Bradstock afirmou que o foco na experiência do desenvolvedor não precisa mais ser exclusivamente humano. Com a IA de agente substituindo significativamente tarefas de codificação e operação, documentos, interfaces e até ferramentas estão sendo redesenhados para serem estruturas “fáceis de ler e usar por IA”.

Ele afirmou: “O novo DevOps está usando Claude e Gemini para lidar com tarefas”, e destacou que ambientes de usuário, documentos e várias ferramentas estão sendo reestruturados em torno de “habilidades”. Isso sugere que, no futuro, o software empresarial pode evoluir além de interfaces projetadas para humanos, tornando-se estruturas que permitem que IA de agente chamem e executem diretamente.

Objetivo central: equilibrar “manter o controle” e “garantir desempenho”

O núcleo dessa transformação é que as empresas não querem mais escolher entre controle de dados e desempenho de IA. Infraestrutura de IA pronta para uso hoje não é mais apenas expansão de servidores, mas uma abordagem de design integrada que combina soberania de dados, recursos de GPU, implantação de modelos, governança e orquestração.

Do ponto de vista de mercado, essa estratégia da Google mostra que as empresas de nuvem estão novamente aprofundando sua atuação em ambientes locais e híbridos. Com a implementação de IA pelas empresas em andamento, o sucesso não depende apenas do desempenho do modelo, mas de conseguir implantá-lo de forma segura e flexível no ambiente operacional real.

Notas do TP AI Este texto é um resumo gerado por um modelo de linguagem baseado no TokenPost.ai. Pode haver omissões de conteúdo principal ou divergências em relação à realidade.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar