Анализ рынка

1. Обзор рынков

Deep Station One находится на пересечении трёх растущих рынков:

Рынок Объём 2025 Прогноз 2030 CAGR
AI-рабочие станции ~$5B ~$15B 18%
GPU Workstation (шире) $18.6B $44B 11.3%
Иммерсионное охлаждение $287M→$838M $1B–9.6B 23–35%
AI Inference (on-prem + облако) $106B $255B 19.2%

Источники: Grand View Research, Straits Research, Mordor Intelligence, MarketsandMarkets.


2. TAM / SAM / SOM

TAM (Total Addressable Market)

AI-рабочие станции с GPU — ~$5B (2025).
Все компании и специалисты, которым нужна on-premise GPU-инфраструктура для AI.

SAM (Serviceable Available Market)

Сегмент «affordable AI workstation» ($5 000–$25 000) — оценка ~$500M–$1B.

Это подмножество рынка, которое:

SOM (Serviceable Obtainable Market)

Реалистичная доля в Year 1–2: 10–30 станций/год → $100k–300k выручки.

Целевая география: Сербия, Балканы, DACH, Восточная Европа, удалённые AI-команды.


3. Целевые клиенты

Основные сегменты

Сегмент Размер Бюджет Потребность Как найти
AI-стартапы (5–50 чел) Десятки тысяч в мире, сотни в Европе $10–50K на инфраструктуру On-prem fine-tuning, inference 70B+ YC, HF community, LinkedIn
ML-инженеры (фриланс) Сотни тысяч $5–15K личные Тихая станция дома, большой VRAM Reddit r/LocalLLaMA, X/Twitter
Университеты / R&D Тысячи Грантовые бюджеты $20–100K Альтернатива DGX, бюджетная Конференции, прямые контакты
AI-аутсорсинг (Восточная Европа) Сотни компаний $10–30K On-prem для клиентских данных (GDPR) Clutch, LinkedIn

Персона: «Алекс, ML-инженер в стартапе»


4. Конкурентный ландшафт

4.1. Карта конкурентов (цена × сегмент)

Цена ($)
│
450K ┤ ■ NVIDIA DGX H100
     │
200K ┤ ■ NVIDIA DGX A100
     │
100K ┤ ■ Submer SmartPod
     │
 50K ┤ ■ GRC     ■ LiquidCool
     │           ■ ENERMAX Cirrus
 20K ┤                           
     │ ─────────────────────  
 10K ┤                  ★ ExaExa Deep Station One
     │                        
  5K ┤ ■ Thermaltake IX600 (только корпус)
     │
     └──┬──────┬───────┬───────┬────
      Dата-   Rack    Edge   Work-
     центр          compute station

★ = ExaExa — уникальная позиция: workstation-level цена + полное решение (GPU mod + иммерсия + контроллер)

4.2. Подробное сравнение

ExaExa DS1 NVIDIA DGX A100 Китайский мод ENERMAX Cirrus Lambda Cloud
Цена $10–20K $200K+ $3 400 (только GPU) ~$50K (оценка) $2.49/ч
GPU 4090 48GB mod A100 80GB ×8 4090 48GB mod RTX 5090 ×4 H100 80GB
VRAM 48–96GB 640GB 48GB 128GB 80GB
Охлаждение Иммерсия (своё) Проприетарное ❌ Нет 2-фазная иммерсия Дата-центр
Сервис/гарантия ✅ Да ✅ Да ❌ Нет ✅ Да N/A
Data privacy ✅ On-prem ✅ On-prem ✅ On-prem ✅ On-prem ❌ Облако
Целевой клиент SMB, инженер Enterprise DIY-энтузиаст Pro/Enterprise Все

4.3. Сравнение GPU по цене за VRAM

GPU VRAM Цена ($) $/GB VRAM
RTX 4090 48GB (ExaExa мод) 48 GB 2 230 $46/GB
RTX 4090 48GB (Китай, готовая) 48 GB 3 400 $71/GB
RTX A6000 (Ampere) 48 GB 4 500–6 900 $94–144/GB
NVIDIA L40S 48 GB 7 500–8 500 $156–177/GB
RTX 6000 Ada 48 GB 10 000+ $208/GB
NVIDIA A100 80GB 80 GB 10 000–15 000 $125–188/GB
NVIDIA H100 80GB 80 GB 25 000–40 000 $312–500/GB

ExaExa: лучшая цена за GB VRAM на рынке — $46/GB (в 2–10× дешевле альтернатив).


5. Ценовое позиционирование

Сравнение: On-Prem vs Cloud (окупаемость)

Deep Station One (Конфиг B) Lambda Cloud (2× H100)
Стоимость $16 000 (разово) $4.98/ч
Стоимость за 1 год (8ч/день) $16 000 $14 542
Стоимость за 2 года $16 000 $29 084
Стоимость за 3 года $16 000 $43 626
VRAM 96 GB (2×48) 160 GB (2×80)
Data privacy ✅ Полная ❌ Облако

Окупаемость on-prem vs облако: ~13 месяцев при 8 часах использования в день. При 24/7 использовании — окупаемость за ~4 месяца.


6. Драйверы и тренды

Что работает в нашу пользу

Тренд Влияние на ExaExa
Рост размера LLM (70B → 400B+) Спрос на VRAM 48GB+ растёт
GPU TDP 450W → 600W+ (5090, Blackwell) Воздушное охлаждение не справляется
GDPR / data sovereignty On-prem обязателен для многих в ЕС
Дефицит H100/H200 Альтернативы на consumer GPU востребованы
AI-стартапы в Европе × 3 за 2 года Больше потенциальных клиентов
Open-source LLM (Llama, Mistral, DeepSeek) Инференс на своём железе = норма

Риски рынка

Риск Вероятность Митигация
Выход RTX 5090 с 32GB обесценит 4090 мод Высокая Переход на мод 5090; 32GB всё ещё мало для 70B+
NVIDIA закроет возможность мода (firmware lock) Средняя Open-source vBIOS, юридическая защита (right to repair)
Облако станет дешевле Низкая Data privacy и latency — не только про цену
Спад AI-хайпа Низкая Реальный спрос от бизнеса, не только хайп

7. Стратегия выхода на рынок (GTM)

Фаза 1: Прямые продажи (Q2–Q4 2026)

Канал Действие
Reddit (r/LocalLLaMA, r/homelab) Демо-посты, AMA
X / Twitter (AI community) Видео-контент, бенчмарки
LinkedIn B2B-контакты с AI-стартапами в Европе
YouTube Распаковка, тесты, сравнение с облаком
Конференции (NTP, местные) Живые демо

Фаза 2: Партнёрства (2027+)

Ценообразование

Продукт Цена ($) Целевой клиент
DIY-комплект (корпус + контроллер) 1 500–2 000 DIY-энтузиаст
Услуга GPU-мода 700–1 000 Инженер с своей картой
Deep Station One (Конфиг A) 9 800–11 800 Фриланс ML-инженер
Deep Station One (Конфиг B) 16 000–19 200 AI-стартап, R&D лаб