top of page

H200 SXM

GPU NVIDIA H200 TENSOR CORE

A Trino Tecnologia é Revenda Autorizada de Servidores com GPUs para o segmento Corporativo.

A GPU NVIDIA H200 Tensor Core potencializa cargas de trabalho de IA generativa e computação de alto desempenho (HPC) com desempenho e recursos de memória revolucionários.
Com base na arquitetura NVIDIA Hopper™, a NVIDIA H200 é a primeira GPU a oferecer 141 gigabytes (GB) de memória HBM3e a 4,8 terabytes por segundo (TB/s) - isso é quase o dobro da capacidade da GPU NVIDIA H100 Tensor Core com
1,4X mais largura de banda de memória. A memória maior e mais rápida da H200 acelera IA generativa e grandes modelos de linguagem, ao mesmo tempo em que avança a computação científica para cargas de trabalho de HPC com melhor eficiência energética e menor custo total de propriedade.

NVIDIA

Arquitetura GPU:

NVIDIA Hopper

Memória:

141 GB HBM3

Fator Forma:

SXM5 Card

Tensor Core:

528

Cuda Cores:

16 896

CPU Cores:

Interface:

PCI Express 5.0 x 16

Veloc. Inteconexão:

900GB/s

GPU Link

NVLink 4

Consumo Energia:

700W

Diferenciais da NVIDIA H200:
Memória Avançada: Primeira GPU a oferecer 141 GB de memória HBM3e com largura de banda de 4,8 TB/s, quase o dobro da capacidade da H100.

Desempenho Superior: Com 4 PetaFLOPS de desempenho FP8, a H200 é projetada para lidar com as cargas de trabalho mais intensivas em IA e HPC.

Eficiência Energética: Mantém o mesmo perfil de potência da H100, oferecendo desempenho superior sem aumento no consumo de energia.

Escalabilidade: Suporta configurações com múltiplas GPUs conectadas via NVIDIA NVLink, permitindo escalabilidade para atender às necessidades de cargas de trabalho crescentes.

A NVIDIA H200 Tensor Core representa um avanço significativo na aceleração de aplicações de IA e HPC, oferecendo desempenho e eficiência energética excepcionais para as demandas computacionais mais exigentes da atualidade.

Peincipais Aplicações para esta GPU:

Inteligência Artificial Generativa e Multimodal
Simulações de HPC/Computação de Alto Desempenho (HPC)
Treinamento e Inferência de Modelos de Linguagem de Grande Escala (LLMs)
Análise de Dados em Larga Escala

Servidores com suporte a esta GPU:

Icone What
bottom of page