FORSITE TENSOR HG
16 NVIDIA® TESLA® V100 SXM2 c интерфейсом NVLINK® .
Максимальная производительность в вычислениях на GPU с NVLINK®.
САМАЯ МОЩНАЯ СЕРВЕРНАЯ ПЛАТФОРМА В МИРЕ ДЛЯ ГЛУБОКОГО И МАШИННОГО ОБУЧЕНИЯ И ВЫСОКОПРОИЗВОДИТЕЛЬНЫХ ВЫЧИСЛЕНИЙ (HPC)
Графические карты
До 512Гб видеопамяти с 16-ю TESLA V100 NVLINK
Центральный процессор
2 x Intel Xeon Scalable до 26 ядер в системе
Оперативная память
до 3072Гб, DDR4
3DS LRDIMM
Питание

6 блоков питания
3000W 80+ Titanium
Технические характеристики
Запросить стоимость
Опишите задачу или требуемую конфигурацию
Оставить запрос
Ваш email
Опишите задачу или интересующую конфигурацию
в свободной форме
NVSWITCH ДЛЯ ВЫЧИСЛЕНИЙ С МАКСИМАЛЬНОЙ СКОРОСТЬЮ ВЗАИМОДЕЙСТВИЯ

Технология NVSwitch обеспечивает взаимодействие всех GPU со скоростью 2,4 ТБ/с, позволяя решать самые сложные задачи в области искусственного интеллекта и HPC. Каждый GPU имеет доступ к унифицированной HBM2 памяти объемом 0,5 ТБ для работы с самыми крупными массивами данных. NVSwitch позволяет создавать унифицированные серверные узлы, значительно повышая производительность приложений для искусственного интеллекта и HPC.


«САМЫЙ КРУПНЫЙ В МИРЕ GPU»

Платформа оснащена 16 GPU NVIDIA® Tesla® V100 с интерфейсом NVIDIA NVSwitch™ и обеспечивает непревзойденные вычислительные возможности, пропускную способность и топологию памяти для более быстрого и эффективного обучения моделей нейросетей, анализа наборов данных, а также для более быстрого и эффективного моделирования. 16 GPU Tesla V100 работают как единый двухпетафлопсный ускоритель с общим объемом памяти 0,5 терабайта (TB). Подобная конфигурация позволяет справляться с задачами, требующими огромного объема вычислений, и представляет собой «крупнейший в мире GPU».
Deep Learning Software
Набор программных библиотек RAPIDS даст вам возможность полностью выполнять сквозную передачу данных аналитику на графических процессорах. Он основан на примитивах NVIDIA® CUDA® для низкоуровневой оптимизации вычислений, и демонстрирует параллелизм графического процессора и высокую пропускную способность памяти через интерфейсы Python. RAPIDS также фокусируется на общих задачах подготовки данных для аналитики и науки о данных. Это включает в себя API DataFrame, который интегрируется с различными алгоритмами машинного обучения для сквозного ускорения конвейера без затрат на сериализацию. RAPIDS также включает поддержку развертываний с несколькими узлами и несколькими графическими процессорами, что позволяет значительно ускорить обработку и обучение при гораздо больших размерах наборов данных.

Параллельная система хранения данных для работы с ИИ

  • Унифицированное хранение данных
  • Управление большими объемами данных и их анализ
  • Поддержка масштабирования
  • Глобальное общее использование и совместная работа
  • Коннектор Hadoop
  • Распределение по уровням на основе политик и оптимизированное сжатие данных
  • Интегрированная и модульная архитектура
  • Сертификация HortonWorks