Amazon revela laboratório do chip Trainium em Austin, peça-chave para Anthropic, OpenAI e Apple

Em meio ao anúncio do acordo de US$ 50 bilhões entre Amazon Web Services (AWS) e a OpenAI, a companhia abriu as portas de seu laboratório de desenvolvimento de chips em Austin (EUA) para uma visita restrita a jornalistas. No local é criado o Trainium, processador que já atende Anthropic, OpenAI, Apple e clientes corporativos do serviço Bedrock.

Capacidade reservada para a OpenAI

Pelo contrato firmado em março, a AWS será fornecedora exclusiva de 2 gigawatts de capacidade de computação em Trainium para a OpenAI, potência considerada gigantesca dentro do setor. O compromisso é firmado enquanto a própria Anthropic e o Bedrock consomem os chips mais rápido do que a Amazon consegue produzi-los.

Números do ecossistema Trainium

• 1,4 milhão de unidades das três gerações do chip já estão instaladas em data centers da AWS.

• Mais de 1 milhão de exemplares do Trainium2 sustentam o modelo Claude, da Anthropic.

• O cluster Project Rainier, um dos maiores do mundo, entrou em operação no fim de 2025 com 500 mil Trainium2 dedicados à Anthropic.

Do treinamento à inferência

Concebido inicialmente para baratear e acelerar o treinamento de modelos de IA, o Trainium passou a ser otimizado também para inferência, etapa que executa os pedidos dos usuários e hoje representa o maior gargalo de desempenho do setor. Segundo a AWS, a segunda geração já conduz a maior parte do tráfego de inferência do Bedrock.

Terceira geração e servidores Trn3 Ultra

Lançado em dezembro, o Trainium3 trabalha em conjunto com novos switches Neuron em configuração de malha, possibilitando que cada chip se comunique diretamente com os demais e reduzindo a latência. Em comparação com servidores tradicionais de GPU na nuvem, a AWS afirma que a solução oferece desempenho equivalente por até 50% do custo.

Compatibilidade e parcerias

Para reduzir a dependência de GPUs Nvidia, a equipe incluiu suporte a PyTorch; em muitos casos, migrar um modelo exige apenas alterar uma linha de código e recompilar. Este mês, a AWS também integrou o processador de inferência da Cerebras Systems a servidores que já usam Trainium, prometendo latências ainda menores.

Estrutura e bastidores do laboratório

O centro de desenvolvimento fica no distrito The Domain, em Austin, e mantém a marca Annapurna, empresa israelense comprada pela Amazon em 2015 por cerca de US$ 350 milhões. O espaço abriga bancadas, estações de soldagem e fileiras de “sleds” — bandejas que concentram Trainium, o CPU Graviton, a placa de virtualização Nitro e sistemas de refrigeração líquida.

Amazon revela laboratório do chip Trainium em Austin, peça-chave para Anthropic, OpenAI e Apple - Imagem do artigo original

Imagem: Internet

Os chips são fabricados em processo de 3 nanômetros pela TSMC, com suporte da Marvell. Durante o chamado “bring-up” — primeira ativação após 18 meses de projeto — é comum a equipe passar noites inteiras solucionando problemas. No caso do Trainium3, foi preciso desgastar manualmente parte do dissipador para ligar o protótipo ar-resfriado, antes de migrar para a versão definitiva de líquido refrigerado.

Data center de testes

A poucos quilômetros dali, um data center exclusivo — separado da infraestrutura comercial da AWS — abriga racks com Graviton, Trainium3 e switches Neuron, todos resfriados em circuito fechado. O ruído dos sistemas de climatização é tão alto que o uso de protetores auriculares é obrigatório.

Próximos passos

Enquanto engenheiros já esboçam o Trainium4, o CEO Andy Jassy acompanha de perto os avanços. Ele declarou em dezembro que o Trainium já gera receitas de “vários bilhões de dólares” para a AWS e destacou o chip novamente ao revelar a parceria com a OpenAI.

Com informações de TechCrunch

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Notícias Recentes

Compartilhe como preferir

Copiar Link
WhatsApp
Facebook
Email