🚀 GTM План №1: Захват рынка AI-стартапов
Шаг 1. Портрет клиента и его "Острая боль" (Pain Points)
- Кто ЛПР (Лицо, принимающее решение): CTO (Технический директор), Lead ML Engineer, Фаундер.
- Их профиль: Небольшая команда (5–20 человек), недавно подняли Seed-раунд ($100k - $2M). Делают свой AI-продукт (SaaS, RAG-систему, AI-ассистента).
- Главная боль (Pain):
- Сжигание бюджета (CapEx vs OpEx): Аренда кластеров в AWS/RunPod/Lambda сжирает огромную долю их ангельских инвестиций.
- Ограничения 24 ГБ: Им нужно дообучать (Fine-tune) модели 70B+ параметров или обслуживать запросы клиентов, но RTX 4090 24GB захлебывается и выдает OOM (Out of Memory).
- Офисный дискомфорт: Если они покупают сервер на обычных воздушных турбинах, в их open-space офисе невозможно разговаривать из-за гула в 70-80 дБ.
Шаг 2. Позиционирование и УТП (Value Proposition)
Мы не продаем "железо". Мы продаем независимость от облака и тишину в офисе.
- Главный оффер (Крючок): "Собственный AI-сервер с 96 ГБ VRAM, который окупает себя за 4 месяца отказа от AWS. Абсолютно бесшумный. Настроен под ваши модели прямо из коробки."
- Ключевые УТП для них:
- Объем памяти (Уникальность): 96 GB VRAM (в Конфиге B) по цене $18.6k. У NVIDIA официальный эквивалент (две RTX 6000 Ada) обойдется в ~$15k-$20k только за видеокарты, без сервера и охлаждения. А мы даем готовый ПАК (Программно-аппаратный комплекс).
- Бесшумность (Иммерсия): Сервер мощностью 1.5 кВт стоит в метре от стола разработчика и не издает ни звука.
- "Белые перчатки" (Turnkey): Мы сами развернем Ubuntu, Docker, vLLM/Ollama и настроим эндпоинты. Инженеры стартапа просто меняют API-ключ OpenAI на локальный IP-адрес станции — и всё работает.
Шаг 3. Lead Generation: Среднеагрессивный аутрич (Global)
Так как мы продаем по всему миру, наш главный инструмент — LinkedIn и базы стартапов. Задача: делать 20-30 точечных касаний в день, чтобы не попасть в бан, но получать 2-3 демо-звонка в неделю.
Механика:
- Радары финансирования (Crunchbase / Dealroom): Раз в неделю парсим стартапы в Европе/США, которые подняли Seed-раунд в сфере AI (Generative AI, LLM, RAG). У них появились деньги, и они сейчас думают, как их тратить на сервера.
- LinkedIn Sales Navigator: Ищем CTO этих стартапов.
- Сообщение (Cold Message - без прямой продажи в лоб):
"Hi [Name], congrats on the recent seed round! I see [Startup Name] is building heavily on LLMs. Quick question: are you guys still burning cash on AWS/RunPod for inference, or are you moving to on-prem? We just built an immersion-cooled server with 96GB VRAM (modded 4090s) that runs 70B models at 25 t/s, dead-silent for an office. We offer free SSH test drives. Worth a 10-min chat?"
- Community-маркетинг (Reddit / X / Discord):
- Идем в сабреддиты
r/LocalLLaMAиr/MachineLearning. - Публикуем не рекламу, а инженерный кейс: "Мы модифицировали 4090 до 48GB, засунули в минеральное масло и запустили Llama-3-70B. Вот бенчмарки и температуры". Это соберет сотни апвоутов и приведет теплые лиды (гиков/CTO) прямо к вам в личку.
- Идем в сабреддиты
Шаг 4. Воронка продаж: Тест-драйв как главный закрывающий аргумент
Никакие красивые PDF не продадут модифицированные чипы лучше, чем консоль.
- Discovery Call (15 минут): По видеосвязи. Знакомимся, узнаем их стек (какие модели крутят, сколько пользователей, какой бюджет уходит на облако).
- Proof of Concept (The Test Drive):
- Выделяете им SSH-доступ к вашему лабораторному прототипу (с изолированным Docker-контейнером) на 24 часа.
- Они загружают свои веса моделей, запускают скрипты и своими глазами видят метрики:
nvidia-smiпоказывает 48GB, генерация идет со скоростью 20 токенов в секунду, температуры стоят на 55°C. - Психология: Как только инженер пощупал мощь 96 ГБ VRAM без задержек сети, он сам пойдет уговаривать фаундера выделить $18k.
- Выставление Инвойса: Подписание контракта и 100% предоплата (оплата по инвойсу на ваше DOO в Сербии / Черногории).
Шаг 5. Доставка, Внедрение и Onboarding (Белые перчатки)
Отгрузка 40-кг аквариума с жидкостью по всему миру — это логистический челлендж. Как мы это решаем:
- Комплектация "Сухая отправка": Вы отправляете железо, собранное во внутренней раме, и пустой внешний поликарбонатный бак в защитных кейсах.
- Секретный ингредиент — Масло: Отправлять 30 литров масла DHL — безумно дорого и часто блокируется таможней как "химикаты". Вы предоставляете клиенту точную спецификацию (CAS-номер, вязкость) и даете ссылки на 2-3 локальных поставщиков в их стране (пищевое/фармацевтическое белое масло). Это стоит копейки на месте.
- Инструкция и Видеосвязь:
- Клиент распаковывает бак, вставляет раму с железом.
- Созванивается с вами по Zoom/Google Meet на английском.
- Вы контролируете процесс заливки масла и первый старт системы ("Не включай, пока уровень не скроет верхний край GPU!").
- Удаленная настройка софта: Как только машина пингуется, вы заходите по SSH. Разворачиваете их стек (оговоренный на Discovery Call).
- 3 месяца Support-периода: У них есть выделенный канал с вами в Slack/Telegram. Вы обновляете драйвера, чините конфликты CUDA и помогаете оптимизировать инференс. Это формирует феноменальную лояльность (сарафанное радио).
Шаг 6. Future Scale (Дорожная карта к Vendor Finance)
Фаундеру стартапа морально тяжело отдать $18,600 сразу (CapEx). Им проще платить по $1,500/мес облаку (OpEx).
- План на перспективу: Как только вы продадите первые 5-10 машин за 100% кеш и накопите подушку, вы выходите на лизинговые компании (например, grenke в Европе или локальные B2B-финансовые организации).
- All-in-One Leasing: Вы переупаковываете продукт. Клиент-стартап подписывает договор лизинга на 24 месяца с платежом, например, $950 в месяц. Лизинговая компания выплачивает вам полную стоимость железа сразу. Стартап счастлив (платеж меньше, чем их счет за AWS), вы получили деньги, а продукт перешел в категорию "Must Have".
Резюме для AI-стартапов: Мы бьем в боль "цена инференса + нехватка памяти", захватываем их внимание через бенчмарки на Reddit/LinkedIn, добиваем бесплатным SSH тест-драйвом и закрываем сделку сервисом "белых перчаток" (железо + удаленный софт под ключ).