8 800 500-99-26 Для звонков по России

Что такое Tongyi DeepResearch

Tongyi DeepResearch — открытый агент для глубоких, многошаговых веб-исследований. Его можно запускать локально без облака и внешних API, сохраняя приватность и контроль над данными. Агент ищет, проверяет и синтезирует информацию, автоматизирует ресёрч-процессы и при необходимости дообучается под ваши задачи в вашей инфраструктуре.

Эффективная архитектура

Эффективная архитектура

Tongyi DeepResearch на базе Qwen3-30B-A3B активирует ~3 из ~30 млрд модулей. Это значит — ниже нагрузка, мягкие требования к железу и готовность работать даже на компактных конфигурациях.
Локальный запуск

Локальный запуск

Tongyi DeepResearch обрабатывает до 128 000 токенов за один запрос. Благодаря MoE архитектуре, модель уверенно запускается локально: обычно достаточно 24–48 ГБ видеопамяти, а с 4–8-бит квантизацией возможны сборки и на 16 ГБ. Все данные остаются внутри вашей инфраструктуры — максимум приватности и контроля.

Мощные рабочие станции

Производительные системы с одной или двумя GPU для локального запуска нейросетей. Подходят разработчикам, исследователям и стартапам, которым важны мощность и автономность.

  Конфигурировать
Процессор W5-3425X
Видеокарта RTX 5080 16GB
Оперативная память 128GB ECC
NVME 1 TB NVME 5.0
NVME 2 4 TB
  Конфигурировать
Процессор 7965WX
Видеокарта RTX 5090 32GB
Оперативная память 256GB ECC
NVME 1 TB NVME 5.0
NVME 2 4 TB
  Конфигурировать
Процессор 7975WX
Видеокарта 2 x RTX 5090 32GB
Оперативная память 512GB ECC
NVME 1 TB NVME 5.0
NVME 2 4 TB

Рабочие станции для дообучения LLM

Персональные вычислительные кластеры на базе 4-х видеокарт с единым контуром жидкостного охлаждения. Обеспечивают суммарный объем VRAM для локального запуска (Inference) и дообучения (Fine-Tuning) топовых LLM, включая DeepSeek и Llama 3. Кастомная СЖО гарантирует полную тишину и отсутствие троттлинга даже при круглосуточных нагрузках в офисных условиях.

  Конфигурировать
Процессор 7975WX
Видеокарта 2 x RTX 5090 32GB
Оперативная память 256GB ECC
NVME 1 TB NVME 5.0
NVME 2 4 TB NVMe 5.0
  Конфигурировать
Процессор 7985WX
Видеокарта 4 x RTX 5090 32GB
Оперативная память 512GB ECC
NVME 1 TB NVME 5.0
NVME 2 4 TB NVMe 5.0
  Конфигурировать
Процессор 7995WX
Видеокарта 2 x RTX PRO 6000 96GB
Оперативная память 1024GB ECC
NVME 1 TB NVME 5.0
NVME 2 4 TB NVMe 5.0

Серверы для AI и нейросетей

Мощные вычислительные узлы с усиленным охлаждением для установки в серверные комнаты. Предназначены для масштабного обучения языковых моделей (LLM), построения вычислительных кластеров и задач, где требуется максимальная производительность на единицу стоечного пространства.

Узнать больше
ИИ и Графика

Rackstation AI

Компактный GPU-сервер до 2 видеокарт для начальных задач в AI и графике. Оптимален для инференса, визуализации, VFX и рендеринга в студиях и лабораториях, где важна гибкость.

Смотреть модели

Процессоры

Threadripper PRO 7000 WX

Количество ядер CPU

от 32 до 96 ядер

Видеокарты

RTX 5080 - RTX 5090
или
RTX 6000 Ada - H200

Количество видеокарт

до 2-x видеокарт

Оперативная память

до 1024 GB RDIMM ECC DDR5

Размеры

19” 4,5U
Обучение нейросетей

Devbox AI

Универсальная платформа на 4–6 GPU для локального обучения моделей и генеративных задач. Подходит для команд, которым важна надёжность сервера и свобода выбора графики — от RTX 5090 до PRO RTX 6000.

Смотреть модели

Процессоры

Threadripper PRO 7000 WX

Количество ядер

от 32 до 96 ядер

Видеокарты

RTX 5080 - RTX 5090
или
RTX 6000 Ada - H200

Количество видеокарт

до 6-ти видеокарт

Оперативная память

до 2048 GB RDIMM ECC DDR5

Размеры

19” 6,5U
Инфраструктура ИИ

Scale

Сервер промышленного уровня на 8 GPU с кластерной архитектурой. Предназначен для дата-центров и AI-ферм, где требуется масштабируемость и полная загрузка ресурсов под обучение LLM и R&D.

Смотреть модели

Процессоры

до 2x EPYC 9005

Количество ядер

От 128 до 256 ядер

Видеокарты

RTX 5090 32GB
или
RTX PRO 6000 Blackwell 96GB

Количество видеокарт

до 8-ми видеокарт

Оперативная память

до 2048 GB RDIMM ECC DDR5

Размеры

19” 6,5U
Обучение нейросетей

HPC 4000

Серия серверов для кластеризации на 4 GPU. Предназначены для дата-центров и AI-ферм, где требуется повышенная плотность для обучение LLM и R&D.

Смотреть модели

Процессоры

до 2x EPYC 9005 / Xeon Scalable

Количество ядер

до 256 ядер, 512 потоков

Видеокарты

H200 PCI-E / L40S

Количество видеокарт

до 4-x видеокарт

Оперативная память

до 2048 GB RDIMM ECC DDR5

Размеры

19” 2U
Инфраструктура ИИ

HPC 8000

Серия серверов для кластеризации на 8 GPU. Предназначены для дата-центров и AI-ферм, где требуется повышенная плотность для обучение LLM и R&D.

Смотреть модели

Процессоры

до 2x EPYC 9005 / Xeon Scalable

Количество ядер

до 256 ядер, 512 потоков

Видеокарты

H200 PCI-E / L40S

Количество видеокарт

до 8-ми видеокарт

Оперативная память

до 2048 GB RDIMM ECC DDR5

Размеры

19” 4U
Инфраструктура ИИ

HGX H200

HGX объединяет 8 видеокарт NVIDIA H200, достигая экстремальной плотности производительности. Благодаря внутренней связности NVSwitch мгновенно интегрируется в масштабные вычислительные кластеры.

Смотреть модели

Процессоры

до 2x EPYC 9005 / Xeon Scalable

Количество ядер

до 256 ядер, 512 потоков

Видеокарты

H200 SXM

Количество видеокарт

до 8-ми видеокарт

Оперативная память

до 2048 GB RDIMM ECC DDR5

Размеры

19” 5U

Начните с тестирования

Тестирование и готовые конфигурации в наличии
Тестирование и готовые конфигурации в наличии

Вы можете протестировать системы перед покупкой и подобрать подходящую конфигурацию. Доступны варианты из наличия для быстрой отгрузки.

Почему важно запускать ИИ локально

Защита данных

Данные остаются внутри инфраструктуры, что важно для финансового, юридического и медицинского сектора.

Минимальные задержки

Быстрый отклик и стабильная работа даже без доступа к интернету.

Экономия

После первоначальных затрат эксплуатация дешевле, чем при использовании облачных API.

Контроль и гибкость

Возможность дообучать модель, адаптировать под свои данные и процессы.

Сценарии применения
Tongyi DeepResearch

Решения DigitalRazor на базе Tongyi DeepResearch предназначены для задач, где критичны автономность, контроль над данными и стабильная работа в собственной инфраструктуре. Мы подбираем готовые рабочие станции и серверы под реальные кейсы локального запуска LLM без обращения к облачным сервисам и API.

  • Глубокие веб-исследования

    Поиск, проверка и синтез информации из множества источников с цитатами и ссылками. Готовит структурированные обзоры и выводы для быстрых решений.

    Глубокие веб-исследования
  • Виртуальные корпоративные ассистенты

    Ответы на сложные вопросы, навигация по внутренним базам знаний, краткие брифы и сводки. Работает локально на ваших серверах — без передачи данных наружу.

    Виртуальные корпоративные ассистенты
  • Генерация аналитики и прогнозов

    Сбор фактов, конкурентные обзоры и сценарные записки с прозрачными ссылками. Числовое прогнозирование остаётся задачей специализированных ML-моделей.

    Генерация аналитики и прогнозов
  • Рекомендательные системы

    Исследует подходы, прототипирует логику и формирует объяснимые подборки на основе корпоративных данных. Для онлайновых рекомендаций в проде потребуются профильные модели и пайплайны.

    Рекомендательные системы
  • Автоматизация рабочих процессов

    Интеллектуальные пайплайны «поиск → проверка → шаблон документа/ответ». Интеграции с вашими системами добавляют маршрутизацию, проверку заявок и контроль качества.

    Автоматизация рабочих процессов

Тестирование Tongyi DeepResearch

Tongyi DeepResearch подтверждает класс на ключевых наборах для веб-агентов. Устойчивая навигация, проверка источников и содержательные отчёты в длинных сценариях.

Тип бенчмарка Tongyi DeepResearch OpenAI DeepResearch / o3 GLM-4.5
BrowseComp 43.4% 51.5% 26.4%
WebWalkerQA 72.2% 71.7% 65.6%
xbench-DeepSearch 75.0% 67.0% 70.0%
GAIA 70.9% 67.4% 66.0%
Особенности решений для Tongyi DeepResearch

Почему выбирают DigitalRazor

Мы создаём готовые решения для Tongyi DeepResearch — от подбора компонентов и преднастроенного окружения до сопровождения под ваши задачи. Это локальный запуск без внешних API: надёжность, простота и масштабируемая производительность в одном.

Комплектация и настройка под ключ

Рабочие станции поставляются полностью готовыми к работе: установлены все драйверы, CUDA и среда для Tongyi DeepResearch. Вам не нужно тратить время на настройку — просто включите и приступайте к проектам.

Максимальная производительность

Мы подбираем NVIDIA GPU с большим объёмом VRAM и оптимизируем систему под LLM-нагрузки. Это обеспечивает плавный отклик, стабильную работу и возможность обработки огромных контекстов.

Конфиденциальность данных

Все вычисления происходят локально — без облака и API. Полный контроль над данными и соответствие корпоративным стандартам безопасности.

Расширяемость под задачи

Системы легко масштабировать — добавляйте GPU или переходите на rack-формат по мере роста проектов. Инфраструктура растёт вместе с вашими идеями.

Сервис и поддержка на каждом шагу

Собственное производство, тестирование и сервисный центр: мы сопровождаем вашу систему от сборки до апгрейда и гарантии — всё под вашим контролем.

Наши клиенты

Мы убеждены, что компьютеры должны делать вашу работу более эффективной, и гордимся тем, что уже помогли тысячам компаний и частных лиц ускорить их деятельность.

Глобалтехэкспорт

Глобалтехэкспорт

МФТИ

МФТИ

Айтеко

Айтеко

Usetech

Usetech

МЭИ

МЭИ

Визионеро

Визионеро

ФИЦ Коми научный центр УрО РАН

ФИЦ Коми научный центр УрО РАН

Консультант+Аскон

Консультант+Аскон

Современные системы реновации

Современные системы реновации

Селигдар

Селигдар

ИПЭЭ РАН

ИПЭЭ РАН

Эффективные технологии

Эффективные технологии

XO Studios

XO Studios

Сбер

Сбер

Альфа-Банк

Альфа-Банк

Samsung

Samsung

Инновационный центр «Сколково»

Инновационный центр «Сколково»

Самарский университет

Самарский университет

Сайт использует cookies
Узнать подробнее