OpenAI aposta em chips sob medida para cortar custos e energia em IA

Date:

A OpenAI está redesenhando a infraestrutura que sustenta seus modelos de inteligência artificial ao desenvolver e utilizar chips personalizados, em vez de depender apenas de componentes genéricos. A iniciativa busca reduzir custos operacionais e consumo de energia, fatores críticos diante da popularização dos grandes modelos generativos.

Alinhamento entre software e silício

Inspirada em estratégias adotadas no mercado de dispositivos móveis, a companhia pretende ajustar o hardware às necessidades específicas dos algoritmos. Assim como a Apple integrou chips próprios ao iPhone para ganhar eficiência, a OpenAI quer otimizar todas as etapas — do treinamento à entrega das respostas aos usuários.

Perfis diferentes para treinamento e inferência

No treinamento, a empresa mantém o uso de GPUs poderosas pela flexibilidade que oferecem. Já na inferência, quando o modelo responde a solicitações, a preferência recai sobre chips capazes de lidar com altos volumes de memória de banda larga (HBM) e acessos seletivos.

Redes neurais esparsas e eficiência

Os modelos mais recentes adotam redes neurais esparsas, ativando somente partes da rede a cada consulta. Isso diminui o processamento exigido e permite ganhos de eficiência de ordem de magnitude quando os chips são projetados para esse comportamento.

Parcerias estratégicas

A OpenAI firmou acordos com fornecedores como a Broadcom para desenvolver semicondutores customizados. Esses componentes procuram entregar resultados mais rápidos e econômicos, aproveitando as características das redes esparsas e o suporte obrigatório a HBM.

Aplicações em alta demanda

A companhia também assegura fornecimento de memória avançada para sustentar serviços intensivos, como o Pulse, que resume informações da internet para assinantes premium, mantendo desempenho consistente mesmo sob carga elevada.

Escala global e consumo energético

O CEO Sam Altman estima que atender bilhões de usuários com IA generativa poderia exigir um chip por pessoa, com gasto de energia comparável ao de grandes cidades. Por isso, a eficiência energética tornou-se peça central para a viabilidade econômica e ambiental da plataforma.

Combinando GPUs no treinamento e chips personalizados na inferência, a OpenAI tenta criar um ecossistema capaz de escalar o fornecimento de IA em larga escala, mantendo custos e consumo dentro de limites administráveis.

Com informações de WizyThec

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui

Compartilhar postagem:

Popular

Relacionados

Projetor portátil BYINTEK U4 entra em promoção na Amazon com resolução Full HD e Android integrado

O projetor portátil BYINTEK U4 está com preço promocional...

Banco de dados expõe 149 milhões de senhas de Gmail, Instagram e gov.br

Um banco de dados sem qualquer proteção revelou 149...

Lua entra em fase Nova nesta quinta-feira, 22 de janeiro de 2026

A Lua apresenta-se em fase Nova nesta quinta-feira (22),...

Receita Federal oferece iPhone 15 a partir de R$ 1,3 mil em leilão online

A Receita Federal vai leiloar 289 lotes de produtos...