BREAKING NEWS

Publicidade

O boom do chip AI está levando a Nvidia a US$ 1 trilhão, mas não ajudará a Intel e a AMD

O boom do chip AI está levando a Nvidia a US$ 1 trilhão, mas não ajudará a Intel e a AMD

Publicidade

Nvidia as ações subiram perto de um valor de mercado de US $ 1 trilhão no pregão de quarta-feira, depois de relatar uma perspectiva futura forte e chocante e o CEO Jensen Huang disse que a empresa teria um “ano recorde gigante”.

As vendas aumentaram devido ao aumento da demanda pelos processadores gráficos (GPUs) fabricados pela Nvidia, que alimentam aplicativos de IA como os do Google, Microsoft e OpenAI.

A demanda por chips de IA em datacenters estimulou a Nvidia a atingir US$ 11 bilhões em vendas durante o trimestre atual, superando as estimativas de analistas de US$ 7,15 bilhões.

“O ponto de ignição foi a IA generativa”, disse Huang em entrevista à CNBC. “Sabemos que o dimensionamento da CPU diminuiu, sabemos que a computação acelerada é o caminho a seguir e, então, o aplicativo matador apareceu”.

A Nvidia acredita que está passando por uma mudança distinta na forma como os computadores são construídos, o que pode resultar em um crescimento ainda maior – as peças para data centers podem até se tornar um mercado de US$ 1 trilhão, diz Huang.

Historicamente, a parte mais importante em um computador ou servidor era o processador central, ou a CPU. Esse mercado era dominado pela Intel, com AMDcomo seu principal rival.

Com o advento de aplicativos de IA que exigem muito poder de computação, o processador gráfico (GPU) está ocupando o centro do palco, e os sistemas mais avançados estão usando até oito GPUs para uma CPU. A Nvidia atualmente domina o mercado de GPUs AI.

“O data center do passado, que era em grande parte CPUs para recuperação de arquivos, será, no futuro, dados generativos”, disse Huang. “Em vez de recuperar dados, você recuperará alguns dados, mas precisará gerar a maior parte dos dados usando IA”.

“Portanto, em vez de milhões de CPUs, você terá muito menos CPUs, mas elas serão conectadas a milhões de GPUs”, continuou Huang.

Por exemplo, os próprios sistemas DGX da Nvidia , que são essencialmente um computador AI para treinamento em uma caixa, usam oito das GPUs H100 de ponta da Nvidia e apenas duas CPUs.

O supercomputador A3 do Google combina oito GPUs H100 ao lado de um único processador Xeon de última geração fabricado pela Intel.

Essa é uma das razões pelas quais os negócios de data center da Nvidia cresceram 14% durante o primeiro trimestre contra o crescimento estável da unidade de data center da AMD e um declínio de 39% na unidade de negócios AI e Data Center da Intel.

Além disso, as GPUs da Nvidia tendem a ser mais caras do que muitos processadores centrais. A geração mais recente de CPUs Xeon da Intel pode custar até US$ 17.000 pelo preço de tabela . Um único Nvidia H100 pode ser vendido por US$ 40.000 no mercado secundário .

A Nvidia enfrentará uma concorrência cada vez maior à medida que o mercado de chips de IA esquentar. A AMD tem um negócio de GPU competitivo, especialmente em jogos, e a Intel também tem sua própria linha de GPUs. As startups estão construindo novos tipos de chips especificamente para IA e empresas focadas em dispositivos móveis como a Qualcomme a Apple continua impulsionando a tecnologia para que um dia ela possa rodar no seu bolso, não em um farm gigante de servidores. Google e Amazon estão projetando seus próprios chips de IA.

Mas as GPUs de ponta da Nvidia continuam sendo o chip preferido das empresas atuais que criam aplicativos como o ChatGPT, que são caros para treinar processando terabytes de dados e são caros para executar posteriormente em um processo chamado “inferência”, que usa o modelo para gerar texto, imagens ou fazer previsões.

Os analistas dizem que a Nvidia continua na liderança em chips de IA por causa de seu software proprietário que facilita o uso de todos os recursos de hardware da GPU para aplicativos de IA.

Huang disse na quarta-feira que o software da empresa não seria fácil de replicar.

“Você precisa projetar todo o software, todas as bibliotecas e todos os algoritmos, integrá-los e otimizar as estruturas e otimizá-los para a arquitetura, não apenas um chip, mas a arquitetura de todo um data center”, Huang disse em uma teleconferência com analistas.

Fonte: cnbc

CATEGORIAS
TAGS