Supermicro, Inc., поставщик комплексных ИТ-решений для ИИ, облака, хранилищ данных и 5G/Edge, представил новое оборудование для ускорения развертывания генеративного ИИ. Решения Supermicro SuperCluster могут быть использованы в качестве основных компоновочных блоков инфраструктуры больших языковых моделей (LLM) настоящего и будущего.
Три мощных решения Supermicro SuperCluster теперь предлагаются для рабочих нагрузок генеративного ИИ. Системы с жидкостным охлаждением высотой 4U или с воздушным охлаждением высотой 8U специально спроектированы и сконструированы для высокопроизводительного обучения LLM-моделей, а также для анализа больших объемов данных большими пакетами с использованием LLM-моделей. Третье решение SuperCluster с системами Supermicro NVIDIA MGX™ с воздушным охлаждением высотой 1U оптимизировано для анализа данных в облачном масштабе.
«В эпоху ИИ вычислительные мощности стали измеряться кластерами, а не просто количеством серверов, и с нашими расширенными глобальными производственными мощностями в 5000 стоек в месяц мы можем поставлять нашим клиентам полные кластеры для генеративного ИИ быстрее, чем когда-либо прежде, — сказал Чарльз Лян (Charles Liang), президент и генеральный директор Supermicro. — Кластер из 64 узлов позволяет использовать 512 графических процессоров NVIDIA HGX H200 с 72 ТБ памяти HBM3e через пару наших масштабируемых компоновочных блоков для кластеров с матрицами коммутации NVIDIA Quantum-2 InfiniBand и Spectrum-X Ethernet с пропускной способностью 400 Гбит/с. Решения SuperCluster компании Supermicro в сочетании с программным обеспечением NVIDIA AI Enterprise идеально подходят для корпоративных и облачных инфраструктур, предназначенных для обучения современных LLM-моделей с триллионами параметров. Взаимосвязанные графические процессоры, центральные процессоры, память, хранилище данных и сетевые средства при развертывании для большого числа узлов в стойках образуют основу современного ИИ. Решения SuperCluster от Supermicro служат основными компоновочными блоками для быстро развивающихся генеративного ИИ и LLM-моделей».
«Новейшие технологии NVIDIA, используемые в графических и центральных процессорах, сетевых системах и программном обеспечении, позволяют производителям систем ускорить выполнение ряда рабочих нагрузок ИИ следующего поколения для глобальных рынков, — сказал Каустуб Сангани (Kaustubh Sanghani), вице-президент по управлению продуктами, отвечающий в NVIDIA за графические процессоры. — Используя ускоренную вычислительную платформу NVIDIA с продуктами на основе архитектуры Blackwell, Supermicro прелагает необходимые клиентам самые современные серверные системы, которые можно легко развернуть в центрах обработки данных».
Системы Supermicro высотой 4U с 8 графическими процессорами NVIDIA HGX H100/H200 имеют плотность вдвое выше, чем у систем высотой 8U с воздушным охлаждением, за счет использования жидкостного охлаждения, что приводит к снижению энергопотребления и совокупной стоимости владения (TCO) центра обработки данных. Эти системы рассчитаны на поддержку графических процессоров следующего поколения на основе архитектуры NVIDIA Blackwell. Распределительный блок охлаждения (CDU) и коллектор (CDM) компании Supermicro являются основными артериями для подведения охлажденной жидкости к специальным холодным пластинам Supermicro, непосредственно соприкасающимся с микросхемами (D2C), что позволяет поддерживать оптимальную температуры графических и центральных процессоров для достижения максимальной производительности. Эта технология охлаждения позволяет экономить до 40 % всей потребляемой центром обработки данных электроэнергии и уменьшить занимаемое центром обработки данных пространство.
Системы с 8 графическими процессорами NVIDIA HGX H100/H200 идеально подходят для обучения генеративного ИИ. Взаимосвязанные через NVIDIA® NVLink® графические процессоры с высокой пропускной способностью и большим объемом памяти являются ключевым фактором для экономичной работы LLM-моделей. Решение Supermicro SuperCluster образует огромный массив ресурсов графических процессоров, действующий как единый суперкомпьютер для ИИ.
Если нужно выполнить с нуля обучение огромной базовой модели с использованием набора данных с триллионами маркеров или построить инфраструктуру для анализа данных с помощью LLM-модели облачного масштаба, топология сети «ствол и листья» с неблокируемой матрицей сети 400 Гбит/с позволяет легко масштабировать кластер от 32 до тысяч узлов. Благодаря полностью интегрированному жидкостному охлаждению надежные процессы тестирования Supermicro позволяют тщательно проверить эксплуатационную эффективность и экономичность систем перед отправкой.
Конструкция систем Supermicro NVIDIA MGX™ с процессорами NVIDIA GH200 Grace Hopper Superchip может служить основой будущих кластеров для ИИ, которая позволит решить основную проблему для генеративного ИИ: обеспечить пропускную способность и объем памяти графических процессоров, необходимые для работы больших языковых моделей (LLM) с большими наборами анализируемых данных и снижения эксплуатационных расходов. Кластер из 256 узлов позволяет создать мощную систему облачного масштаба для анализа больших объемов данных, развертывание и масштабирование которой не представляет сложности.