top of page

Servidor DELL XE9780

Criado para treinamento e inferência de modelos de IA
Servidores para IA com resfriamento a ar projetados para desempenho, simplicidade e integração perfeita

O PowerEdge XE9780 oferece desempenho máximo para treinamento de modelos de IA, inferência em grande escala e ajuste fino. Fornecendo a confiabilidade e a flexibilidade necessárias para a implementação e o gerenciamento de IA.

Servidor DELL XE9780

A Trino Tecnologia é Revendedor Autorizado 
Configuramos seu servidor, conforme sua demanda e requisitos. Atendimento especializado.
Somente servidores novos com garantia Fabricante. Entrega em todo o Brasil. Fale conosco

DELL

Especificação:

PowerEdge XE9780

Carga de Trabalho

Dell PowerEdge XE9780 é um servidor de alta performance (HPC) em rack de 10U, projetado especificamente para as cargas de trabalho de Inteligência Artificial mais exigentes do mercado, como o treinamento de LLMs (Grandes Modelos de Linguagem) e Deep Learning.

Armazenamento/Chassi:

[2,5"10 Baias] NVMe Suporte / [16 x E3.S NVMe] Suporte

Rack 10U

Processador:

2 x processadores escaláveis Intel® Xeon® 6 geração com até 86 núcleos por processador

Suporte a GPU:

8 NVIDIA HGX B300 NVL8 270GB 1100W SXM6 GPUs,
8 NVIDIA HGX B200 180GB 1000W SXM6

Disponibilidade:

Sob Encomenda

Somente Estoque (S/N)

Modelos em Catalogo/estoque

Valores de Referencia para faturamento direto ao cliente final SP - Contribuinte, através de distribuidores de informatica.

Faturamento Boleto/Distribuidor. Não Incluem DIFAL caso aplicável

Solicite cotação atualizada do Servidor com opcionais.

Informações Gerais Servidor

O Dell PowerEdge XE9780 é um servidor rack de alta densidade otimizado para Inteligência Artificial (IA), projetado para treinamento e inferência de modelos avançados de machine learning e workloads HPC (High Performance Computing). Ele faz parte da linha PowerEdge AI Servers da Dell, voltada a data centers que executam cargas aceleradas por GPU.

Dell PowerEdge XE9780 — Visão Geral

O XE9780 é um servidor GPU-dense refrigerado a ar, desenvolvido especificamente para:

Treinamento de LLMs (Large Language Models)

IA generativa

Deep Learning

HPC científico

Inferência em escala corporativa

Ele combina CPUs Xeon de última geração com um backbone massivo de GPUs NVIDIA interconectadas por NVLink.

Icone What
bottom of page