A nova era do raciocínio em IA! O LPU da Nvidia impulsiona as ações A do setor de PCB

robot
Geração de resumo em curso

18 de março, o conceito de PCB no mercado A-shares abriu em alta e subiu 2,62%, liderando o ranking dos setores de conceito. Entre as ações componentes, Jinlu Electronics subiu mais de 10%, Aohong Electronics, Aosikang e Guanghe Technology atingiram o limite de alta, Jin’an Guoji e Hongxin Electronics subiram mais de 7%, Pengding Holdings, Shudian Shares, Mankun Technology, Oat Technology, Dongwei Technology subiram mais de 6%, enquanto várias ações como Dazhu CNC, Aiko Optoelectronics, Ultrasonic Electronics, Sihui Fushi, Tianshan Electronics e Honghe Technology subiram mais de 5%.

Na parte de notícias, recentemente a conferência GTC 2026 da Nvidia foi inaugurada em San Jose, Califórnia, EUA. Jensen Huang, fundador e CEO da Nvidia, apareceu vestindo uma jaqueta preta emblemática, apresentando um chip aparentemente compacto, mas de grande significado estratégico — o Groq 3 Language Processing Unit (LPU).

“LPU” significa “Language Processing Unit”, ou seja, unidade de processamento de linguagem. Trata-se de um chip dedicado à aceleração de inferência de IA, baseado na aquisição da Groq pela Nvidia no ano passado, focado em decodificação de baixa latência e inferência interativa, complementando as GPUs voltadas para treinamento e computação geral, apoiando todo o processo de implementação de IA, do treinamento à aplicação prática.

Segundo Jensen Huang, a visão futura de colaboração entre GPU e LPU é que Vera Rubin (que integra 72 GPUs Rubin e 36 CPUs Vera) será responsável pela fase de “pré-carregamento” que exige cálculos massivos, enquanto o Groq LPU cuidará da fase de “decodificação” extremamente sensível à latência. Com essa arquitetura híbrida, a taxa de throughput de inferência do sistema e a eficiência energética podem ser aumentadas até 35 vezes.

Relatórios de corretoras indicam que, com a chegada da era do AI Agent (agente inteligente), a demanda por inferência continuará crescendo rapidamente. Estima-se que, em 2026, o mercado global de chips de IA atingirá US$ 280 bilhões, com chips de inferência representando 52%, ou seja, cerca de US$ 145 bilhões, com uma taxa de crescimento anual composta superior a 50%. Além disso, o LPU, em termos de eficiência energética, relação custo-benefício e latência, supera significativamente as GPUs, podendo se tornar a principal tecnologia no mercado de inferência. Acredita-se no alto potencial de crescimento à medida que o LPU se infiltra gradualmente no mercado, bem como nas oportunidades relacionadas a PCB na forma de entrega de sistemas com o uso de LPU.

(Fonte: Centro de Pesquisa da Oriental Wealth)

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar