(Bloomberg/Dina Bass e Emily Forgash) — Em uma indústria de chips de IA quase totalmente dominada pela Nvidia Corp., um chip do Google desenvolvido há mais de 10 anos especificamente para tarefas de inteligência artificial está finalmente ganhando impulso fora de sua empresa local como forma de treinar e executar modelos complexos de IA.
A Anthropic PBC revelou na quinta-feira um acordo com o Google, da Alphabet Inc, para fornecer à startup de inteligência artificial mais de um gigawatt de poder de computação adicional, no valor de vários bilhões de dólares. O acordo dá à Anthropic acesso a mais de 1 milhão de unidades de processamento de tensores do Google, ou TPUs – os chips da empresa projetados sob medida para acelerar cargas de trabalho de aprendizado de máquina – e expande o uso dos serviços em nuvem da gigante da Internet.
À medida que os concorrentes na indústria de IA lutam para acompanhar a demanda desenfreada, eles procuram maneiras de aumentar seu poder de computação que não dependam do acesso aos chips aceleradores da Nvidia – tanto para reduzir a dependência dos produtos caros da gigante dos chips quanto para mitigar o impacto da escassez. Embora a Anthropic já seja cliente da TPU, o aumento drástico na implantação representa um dos mais fortes endossos da tecnologia pelo Google e uma vitória para seu negócio de nuvem, que a Amazon.com Inc. e muito atrás da Microsoft Corp.
O aumento do interesse na TPU chamará a atenção de outras startups de IA e de novos clientes para a nuvem do Google, ajudando a empresa a alavancar seus anos de investimento no chip.
Os negócios de nuvem do Google relataram lucro operacional de US$ 2,8 bilhões no segundo trimestre, mais que o dobro do mesmo trimestre do ano passado. As ações da Alphabet subiram ligeiramente nas negociações de pré-mercado na sexta-feira.
O acordo do Google com a Anthropic é uma “validação realmente forte de TPUs” que poderia levar mais empresas a experimentá-los, disse o analista da Port, Jay Goldberg. “Muitas pessoas já estavam pensando nisso e provavelmente muito mais pessoas estão pensando nisso agora.”
Unidades de processamento gráfico, ou GPUs, parte do mercado de chips dominado pela Nvidia, foram desenvolvidas para acelerar a renderização de gráficos – principalmente em videogames e outras aplicações de efeitos visuais – mas provaram ser adequadas para treinar modelos de IA porque podem lidar com grandes quantidades de dados e cálculos. Por outro lado, TPU é um tipo de produto especializado conhecido como circuito integrado de aplicação específica ou microchip que foi projetado para uma finalidade específica.
O Google começou a trabalhar em sua primeira TPU em 2013 e a lançou dois anos depois. Inicialmente, foi utilizado para aumentar a velocidade e eficiência do mecanismo de busca na web da empresa. O Google começou a colocar TPUs em sua plataforma de nuvem em 2018, permitindo que os clientes se inscrevessem em serviços de computação executados na mesma tecnologia que alimentava o mecanismo de busca.
Também foi adaptado como acelerador para o trabalho de IA e aprendizado de máquina nos próprios aplicativos do Google. À medida que o Google e sua unidade DeepMind desenvolveram modelos sofisticados de IA como o Gemini, a empresa conseguiu aprender desde equipes de IA até designers de chips, enquanto a capacidade de personalizar chips beneficiou as equipes de IA.
“Quando construímos nosso primeiro sistema baseado em TPU, há mais de 10 anos, o objetivo era realmente resolver alguns de nossos desafios internos de escalabilidade”, disse Mark Lohmeyer, vice-presidente e gerente geral de IA e infraestrutura de computação do Google Cloud, em um discurso na conferência em setembro. “Então, quando entregamos esse poder de computação aos nossos pesquisadores do Google DeepMind e outros, isso permite diretamente a inovação do transformador de várias maneiras”, disse ele, referindo-se à arquitetura pioneira de IA proposta pelo Google que se tornou a base para os modelos atuais.
Os chips da Nvidia se tornaram o padrão ouro no mercado de IA porque a empresa fabrica GPUs há mais tempo do que qualquer outra, além de serem poderosos, atualizados com frequência, oferecem um conjunto completo de software relacionado e são de uso geral o suficiente para funcionar em uma ampla gama de tarefas. No entanto, devido à procura crescente, são também caros e, nos últimos anos, têm sido persistentemente escassos.
Enquanto isso, as TPUs muitas vezes podem ter melhor desempenho para cargas de trabalho de IA porque foram projetadas para esse propósito, disse Goldberg, da Seaport, que tem uma classificação de venda rara em ações da Nvidia. Isso significa que a empresa “pode descartar muitas outras partes do chip” que não são construídas para IA, disse ele. Agora na sétima geração do produto, o Google melhorou o desempenho dos chips, tornou-os mais potentes e reduziu a potência necessária para usá-los, tornando seu funcionamento mais barato.
Os clientes atuais da TPU incluem Safe Super Intelligence – a startup fundada no ano passado pelo cofundador da OpenAI, Ilya Sutskever, bem como Salesforce Inc. e Midjourney, juntamente com a Anthropic.
Por enquanto, as empresas que desejam usar o Google TPU devem se inscrever para alugar poder de computação na nuvem do Google. Mas isso poderá mudar em breve – com o acordo do Antropoceno a expandir-se ainda mais para outras nuvens, disseram analistas da Bloomberg Intelligence.
“O acordo potencial do Google com a Anthropic sugere maior comercialização das unidades de processamento de tensores do primeiro com outras neonuvens fora do Google Cloud”, escreveram Mandeep Singh e Robert Bigger da BI em nota na quarta-feira, referindo-se a empresas menores que oferecem poder de computação para IA.
Com certeza, ninguém – incluindo o Google – está atualmente procurando substituir completamente as GPUs Nvidia; O ritmo de desenvolvimento da IA significa que isso não é possível neste momento. O analista do Gartner, Gaurav Gupta, disse que o Google é um dos maiores clientes da Nvidia, apesar de ter seus próprios chips, porque precisa manter a flexibilidade para os clientes. Se o algoritmo ou modelo de um cliente mudar, as GPUs serão mais adequadas para lidar com uma gama mais ampla de cargas de trabalho.
O analista do Key Bank, Justin Patterson, concorda que as unidades de processamento de tensores são “menos versáteis” do que as GPUs de uso geral. Mas o acordo da Anthropology demonstra que o Google está ganhando participação na nuvem e que as TPUs são “estrategicamente importantes”, escreveu Patterson em nota aos clientes.
A versão mais recente do TPU do Google, chamada Ironwood, foi lançada em abril. Ele é refrigerado a líquido e projetado para executar cargas de trabalho de inferência de IA, ou seja, usar modelos de IA em vez de treiná-los. Ele está disponível em duas configurações – um pod de 256 chips ou um maior com 9.216 chips.
Veteranos de trabalho em TPU no Google agora lideram startups de chips ou projetos principais em outras grandes empresas de IA. A startup de chip de inferência Groq é dirigida por Jonathan Ross, que iniciou parte do trabalho que se tornou TPU. Outros que trabalharam na TPU do Google incluem Richard Ho, vice-presidente de hardware da OpenAI, desenvolvedora do ChatGPT, e Safin Huda, que ingressou na OpenAI para trabalhar em codesigns de hardware e software, de acordo com seu LinkedIn.
Ao ajudar a expandir a TPU como um carro-chefe da IA, esses ex-Googlers continuam a influenciar as empresas de Internet em toda a indústria de IA. As pessoas que trabalham no Google são os principais impulsionadores do sucesso de seus produtos.
“Não há substituto para esse nível de experiência”, disse Lohmeyer, do Google, em setembro.
(Atualização sobre estatísticas do Google Cloud e participação pré-mercado no quinto parágrafo)
Mais histórias como esta estão disponíveis bloomberg. com
©2025 Bloomberg LP
Publicado originalmente por:




