Физический сервер + 8 ИИ-агентов. Данные не покидают ваш контур. Внедрение 30 дней.
Три фактора совпали одновременно. Компании, внедрившие сейчас, получат преимущество на 18–24 месяца.
ИИ-агенты на open-source моделях только что стали реально работоспособными. Первые 15–20% рынка, внедрившие сейчас, получат операционное преимущество, которое конкурентам будет дорого нагонять.
📅 Внедрение за 30 дней · Окупаемость от 2 недельСобытие в системе → агент запускается → готовый артефакт без участия сотрудника. Human-in-the-loop: агент готовит, человек одобряет.
Praxis Start — для SMB 15–50 сотрудников. Praxis Pro — для 50–150. Praxis Max — для Enterprise 150–500.
SMB 15–50 сотрудников. Внедрение 30 дней. 8 агентов из коробки.
SMB/нижний Enterprise 50–150 сотрудников. Qwen 3 235B.
Enterprise 150–500 сотрудников. HA Active-Passive. 24/7.
Лизинг 36 мес.: от 18 000 ₽/мес (Start) · от 52 000 ₽/мес (Pro) · от 145 000 ₽/мес (Max). Партнёры: Сбербанк Лизинг, ВТБ Лизинг, Балтийский лизинг.
Расчёт на компанию 50 сотрудников (Praxis Start + поддержка). Стоимость часа — 2 500 ₽.
| Критерий | A: Собственный сервер | B: Подписка / Лизинг | C: Аренда GPU |
|---|---|---|---|
| TCO 3 года | ~1,4 млн ₽ | ~2,3 млн ₽ | ~5,4 млн ₽ |
| Тип затрат | CAPEX разовый | OPEX фиксированный | OPEX переменный |
| Данные внутри контура | ✓ Да | ✓ Да | ✗ Нет |
| Соответствие 152-ФЗ / КИИ | ✓ Полное | ✓ Полное | ⚠ Условно |
| Vendor Lock-in | ✓ Нет | ⚠ Контракт | ✗ Высокий |
| Работа без интернета | ✓ Да (Air Gap) | ✓ Да | ✗ Нет |
| Срок запуска | 4–6 недель | 4–6 недель | 1–3 дня (пилот) |
| Налоговый эффект | Амортизация CAPEX | OPEX + НДС к вычету | OPEX снижает налог |
| Слой | Компонент | Лицензия | Версия |
|---|---|---|---|
| LLM Inference | Ollama / vLLM | MIT Apache 2.0 | Ollama 0.4+ |
| Базовая модель | DeepSeek R1 / Qwen 3 | MIT Apache 2.0 | R1-0528 / Q3-2026 |
| Оркестрация | n8n (self-hosted) | Sustainable Use | n8n 1.x |
| Агентный фреймворк | LangGraph / CrewAI | MIT | LG 0.2+ |
| Векторная БД | Qdrant | Apache 2.0 | 1.9+ |
| Embeddings | BAAI/bge-m3 | MIT | bge-m3 |
| Транскрипция | Whisper large-v3 | MIT | large-v3 |
| UI (чат) | Open WebUI | MIT | 0.5+ |
| Реверс-прокси | NGINX / Caddy | BSD / Apache | Stable |
| Мониторинг | Langfuse + Grafana | MIT | Langfuse 2.x |
| VPN | WireGuard / Headscale | GPL / BSD | Stable |
Суммарная стоимость лицензий ПО: 0 ₽/мес. Все компоненты — open-source, self-hosted.
| Параметр | Praxis Start | Praxis Pro | Praxis Max |
|---|---|---|---|
| GPU | 1× RTX 4090 24 GB | 2× RTX 4090 48 GB | 4× RTX A40 48 GB (192 GB) |
| CPU | AMD Ryzen 9 7950X (16c) | AMD EPYC 7443 (24c, 2P) | 2× AMD EPYC 7713 (128c) |
| RAM | 96 GB DDR5-5200 | 256 GB ECC DDR4-3200 | 512 GB ECC DDR4 |
| Хранилище | 2 TB NVMe + 4 TB NVMe | 4 TB RAID-1 + 8 TB NVMe | 8 TB RAID-10 + SAN 20 TB |
| Сеть | 1 GbE | 2× 10 GbE | 4× 25 GbE + IPMI |
| Питание | 1 200 W 80+ Gold | 2× 1 600 W redundant | 4× 2 000 W redundant |
| Форм-фактор | Tower / 4U rack | 2U rack | 4U rack |
| ОС | Ubuntu 22.04 LTS | Ubuntu 22.04 LTS | Ubuntu 22.04 + k3s |
| LLM модель | DeepSeek R1 32B / Qwen 3 30B | Qwen 3 235B / DeepSeek R1 70B | Несколько моделей одновременно |
| Concurrent users | 3–5 | 10–20 | 50+ |
| HA | — | — | Active-Passive, RTO <15 мин |
# Ubuntu + обновление + драйверы NVIDIA
sudo apt update && sudo apt upgrade -y
sudo ubuntu-drivers autoinstall && sudo reboot
nvidia-smi # Проверка: RTX 4090, CUDA 12.4+
# Docker
curl -fsSL https://get.docker.com | sh
sudo usermod -aG docker $USER && newgrp docker
# Установка Ollama
curl -fsSL https://ollama.com/install.sh | sh
sudo systemctl enable ollama && sudo systemctl start ollama
# Загрузка моделей
ollama pull deepseek-r1:32b # ~19 GB
ollama pull qwen3:30b # ~17 GB (MoE)
ollama pull deepseek-r1:14b # ~9 GB
ollama pull bge-m3 # ~570 MB
# Развёртывание сервисов
git clone https://[supplier-repo]/apk-start.git /opt/apk
cd /opt/apk && cp .env.example .env && nano .env
docker compose up -d
docker compose ps # Все сервисы: Up (healthy)
# Загрузка базы знаний
python3 /opt/apk/scripts/ingest.py \
--source /path/to/documents \
--collection company_kb \
--embedding bge-m3
Штраф Start: продление на срок простоя. Pro: 5% за каждые 0,5% ниже цели. Max: 10% за каждые 0,5% ниже цели.
Пошаговый процесс без сюрпризов. Ваш ИТ-администратор тратит 4 часа в неделю на координацию.
2 интервью с SDR, HR, бухгалтером. Определяем, какие агенты внедряем первыми и в каком порядке.
✓ Чёткий план внедренияUbuntu + n8n + Ollama + Qdrant, подключение к сети клиента. Проверка: Open WebUI доступен.
✓ Сервер работаетИнтеграция с amoCRM / Битрикс24. Тест на 20 реальных лидах. SDR видит первые автозаполненные карточки.
✓ Первый агент в работеPDF, регламенты, договоры → индексация в Qdrant. Сотрудники задают первые вопросы через RAG-чат.
✓ База знаний в работеВсе агенты протестированы, команда обучена. Подписание акта приёмки. Переход на контракт поддержки.
✓ Система в боевом режимеВведите email — и через минуту получите логин и пароль для работы с активными агентами PRAXIS. Бесплатно. Без звонков. Без демонстраций с менеджером.
* Данные анонимизированы по NDA. Результаты зависят от масштаба и сценариев внедрения.