top of page

B300 HGX

GPU NVIDIA HGX B300 270GB HBM3e

A Trino Tecnologia é Revenda Autorizada de Servidores com GPUs para o segmento Corporativo.

A NVIDIA HGX™ B300 foi projetada para a era do raciocínio de IA, com poder computacional aprimorado e memória expandida. Com 7 vezes mais poder computacional de IA do que a plataforma Hopper, mais de 2 TB de memória HBM3E e integração de rede de alto desempenho com as SuperNICs NVIDIA ConnectX-8, a HGX B300 oferece desempenho revolucionário nas cargas de trabalho mais complexas, desde treinamento, sistemas agentes e raciocínio, até geração de vídeo em tempo real para todos os data centers.

NVIDIA

Arquitetura GPU:

NVIDIA Blackwell Ultra

Memória:

8 X 270 GB HBM3e

Fator Forma:

SXM6 Card

Tensor Core:

Cuda Cores:

CPU Cores:

Interface:

PCI Express 6.0 x 16

GPU Link

NVLink via NVSwitch™ chip

Descontinuado:

Veloc. Inteconexão:

1.8 TB/s

Consumo Energia:

1100W

Refrigeração:

A NVIDIA HGX B300 integra as GPUs NVIDIA Blackwell Ultra com interconexões de alta velocidade para impulsionar o data center rumo a uma nova era de computação acelerada e IA generativa. Por ser uma plataforma de escalabilidade acelerada líder com até 11 vezes mais desempenho de inferência do que a geração anterior, os sistemas HGX baseados em Blackwell foram projetados para as cargas de trabalho de IA generativa, análise de dados e HPC mais exigentes.

A NVIDIA HGX inclui opções avançadas de redes, a velocidades de até 800 gigabits por segundo (Gb/s), usando o NVIDIA Quantum-X800 InfiniBand e a Ethernet Spectrum™-X para o mais alto desempenho de IA. A HGX também inclui unidades de processamento de dados (DPUs) NVIDIA BlueField®-3 para permitir redes em nuvem, armazenamento agregável, segurança de confiança zero e elasticidade de computação de GPU em nuvens de IA de hiperescala.

Inferência de Grandes Modelos de Linguagem em Tempo Real
A HGX B300 alcança um desempenho de inferência até 11 vezes maior em relação à geração anterior, NVIDIA Hopper™, para modelos como o Llama 3.1 405B. O Transformer Engine de segunda geração usa tecnologia personalizada Blackwell Tensor Core combinada com inovações do TensorRT™-LLM para acelerar a inferência para grandes modelos de linguagem (LLMs).

Desempenho de Treinamento de Nível Superior
O Transformer Engine de segunda geração, com ponto flutuante de 8 bits (FP8) e novas precisões, permite um treinamento notavelmente 4 vezes mais rápido para grandes modelos de linguagem como Llama 3.1 405B. Essa inovação é complementada pelo NVLink de quinta geração com 1,8TB/s de interconexão GPU-a-GPU, rede InfiniBand e software NVIDIA Magnum IO™. Juntos, eles garantem escalabilidade eficiente para empresas e amplos clusters de computação de GPU.

Peincipais Aplicações para esta GPU:

O HGX B300 foi criada Especificamente para IA e Computação de Alto Desempenho
IA, simulações complexas e conjuntos de dados de grande escala exigem várias GPUs com interconexões extremamente rápidas e um stack de software totalmente acelerado

Servidores com suporte a esta GPU:

Não revendemos somente a GPU, somente
integradas em Servidores

Icone What
bottom of page