Deep Station One — Спецификация

Обзор

Первая модель рабочей станции ExaExa. AI/LLM-сервер с иммерсионным охлаждением.

Конфигурации

Конфиг A (Base) Конфиг B (Workstation) Конфиг C (MAX)
CPU 1× EPYC 7543P 1× EPYC 7543P 2× EPYC 7543P
Ядра / потоки 32C / 64T 32C / 64T 64C / 128T
GPU 1× RTX 4090 48GB 2× RTX 4090 48GB 4× RTX 4090 48GB
VRAM 48 GB 96 GB 192 GB
RAM 256 GB DDR4 ECC 512 GB DDR4 ECC 1 TB DDR4 ECC
SSD (NVMe PCIe Gen4) 2× 4TB (8TB) 2× 4TB (8TB) 2× 4TB (8TB)
Сеть OCP 2.0 10/100GbE OCP 2.0 10/100GbE OCP 2.0 10/100GbE
TDP ~725 W ~1 175 W ~2 330 W
Радиаторы (АКПП) 1 1 2
Бак (масло) ~30 л ~30 л ~45 л
Мини-помпы 2 (CPU+GPU) 3 (CPU+2GPU) 6 (2CPU+4GPU)
БП (Внешний) 1× ATX 1200W 1× ATX 1600W 2× ATX 1200W
Себестоимость ~$7 990 ~$12 400 ~$22 065
Цена (×1.5) ~$11 985 ~$18 600 ~$33 097

В перспективе (Custom Build): Планируется добавление конфигуратора для сборки под заказ (Build-to-Order). Клиент сможет самостоятельно выбрать платформу (AMD/Intel), модель CPU и количество/модели GPU под свои специфические задачи.

Аппаратная платформа

Компонент Модель Примечания
Материнская плата Gigabyte MZ32-AR1 Серверная, AMD SP3, до 2 CPU
Процессор AMD EPYC 7543P 32C/64T, 225W TDP
Оперативная память DDR4 ECC RDIMM 64GB До 16 модулей (1 TB)
Накопители 2× 4TB NVMe SSD Высокоскоростные для чекпоинтов LLM (Samsung 990 PRO)
Сеть OCP 2.0 10/100GbE Mellanox ConnectX или аналог
GPU RTX 4090 48GB (мод) Описание мода
Охлаждение Иммерсионное (PCM GPU, Indium CPU) Тепловой расчёт
Корпус Поликарбонат 10мм (бак) + 8мм (рама) Рама из 8мм PC с компонентами погружается в бак 10мм PC
Коммутация Авиационные разъемы (Weipu) Герметичный ввод 12V и сигналов в бак
Кабели Тряпичная оплетка Защита от деградации ПВХ в масле
Контроллер ESP32 + датчики Описание
Блок питания ATX 3.1, 80+ Platinum Внешний (не погружается в масло)

Целевые клиенты

Конфиг Клиент Задачи
A ML-инженер (фриланс) Inference 7B–30B, fine-tuning малых моделей
B AI-стартап, R&D лаб Fine-tuning 70B, inference 70B, мульти-GPU тренировка
C Университет, AI-компания Тренировка 70B+, мульти-модельный inference, research

TODO