AMD Instinct MI350P chega para competir com gigantes da IA, oferecendo desempenho até 40% superior à NVIDIA H200 em formato PCIe.
A AMD acaba de lançar a Instinct MI350P, uma nova aceleradora de inteligência artificial (IA) que promete abalar o mercado. Com 144 GB de memória HBM3E e baseada na arquitetura CDNA 4, a placa se destaca por oferecer um desempenho computacional significativamente superior em comparação com sua principal rival, a NVIDIA H200 NVL.
Este lançamento representa um passo importante para a AMD na corrida pela supremacia em IA, um setor em constante expansão e de alta demanda por hardware cada vez mais potente. A nova placa chega com especificações técnicas impressionantes, focando em eficiência e escalabilidade para centros de dados.
A MI350P se posiciona como uma alternativa robusta para cargas de trabalho de IA, especialmente para o treinamento e inferência de grandes modelos de linguagem (LLMs). A promessa é de um salto de desempenho considerável, buscando atrair desenvolvedores e empresas que buscam otimizar suas operações de inteligência artificial. Conforme divulgado pela AMD, a nova placa oferece até 40% mais desempenho que a NVIDIA H200.
Arquitetura e Especificações da MI350P
A AMD Instinct MI350P é construída utilizando uma técnica de chiplets que combina processos de fabricação de 3 nm e 6 nm, visando maximizar a eficiência e o desempenho. A placa conta com 128 Compute Units (CUs) e 8.192 Stream Processors, operando dentro de um envelope térmico de 600 W com refrigeração passiva, ideal para servidores rack já existentes.
Em termos de memória, a MI350P disponibiliza 144 GB de HBM3E, distribuídos em uma interface de 4.096 bits, o que resulta em uma largura de banda de pico de impressionantes 4 TB/s. O cache de último nível soma 128 MB com correção de erro ECC ativada em toda a pilha de memória, garantindo integridade e confiabilidade nos dados.
Para alimentação, a placa utiliza o conector 12V-2×6, o mesmo padrão das GPUs RTX 40 e 50 da NVIDIA. A MI350P é a primeira aceleradora da AMD com este padrão capaz de atingir os 600 W de consumo máximo, mas também oferece um modo configurável de 450 W para ambientes com restrições térmicas ou de energia.
Desempenho em IA e Formatos de Precisão Reduzida
Um dos grandes diferenciais da AMD Instinct MI350P são seus Matrix Cores, que suportam nativamente formatos de precisão reduzida como MXFP6 e MXFP4. Essa capacidade acelera significativamente o processamento de grandes modelos de linguagem (LLMs), permitindo inferências mais rápidas e com menor consumo de memória, o que é crucial para aplicações como o ChatGPT.
Os números de desempenho de matriz chegam a até 4,6 PFLOPS em MXFP4. Estes valores são potencializados pela tecnologia de esparsidade estruturada, que dobra a eficiência ao ignorar dados irrelevantes durante os cálculos de IA. Além disso, é possível agrupar até oito unidades da MI350P em um único sistema, permitindo um escalonamento de desempenho conforme a necessidade.
Competição Direta com a NVIDIA
A MI350P entra em confronto direto com a aceleradora PCIe mais rápida da NVIDIA disponível atualmente, a H200 NVL. Análises técnicas dos dados teóricos de computação indicam que a placa da AMD oferece 20% mais desempenho em FP64, 43% mais em FP16 e 39% mais em FP8, graças à sua arquitetura CDNA 4.
Enquanto a NVIDIA ainda não detalhou uma versão PCIe de suas GPUs B200 Blackwell com memória HBM, a MI350P se consolida como a opção mais avançada no formato PCIe para IA. No entanto, o desafio da AMD reside em convencer desenvolvedores a migrarem do ecossistema CUDA da NVIDIA para o ROCm, a plataforma de software da AMD.
A AMD tem investido continuamente na stack ROCm, buscando reduzir a diferença em relação ao ecossistema de desenvolvimento de inteligência artificial da concorrência. A empresa detalhou esses investimentos durante a CES 2026, demonstrando seu compromisso em fortalecer sua posição no mercado de IA.