Имя | Год | Кол-во ядер |
Процессор | Объем ОП |
Сеть | ОС | Пиковая производи- тельность (Tflop/s) |
Тест Linpack (Tflop/s) |
---|---|---|---|---|---|---|---|---|
"Уран" | 2008-2021 | 1734 CPU 149 GPU m2090 18 GPU k40m 8 GPU v100 (01.2021) |
Intel Xeon (2.2-3.1 ГГц) NVIDIA Tesla |
15 ТБ | Infiniband, GiEthernet |
Linux |
CPU 44.3 GPU 206.2 |
105.36 |
Адрес кластера "Уран" umt.imm.uran.ru
Аннотация
Суперкомпьютер «Уран» собран на базе Blade серверов фирмы Hewlett-Packard. Он состоит из 81 вычислительного узла, которые установлены в модулях с высокой плотностью упаковки.
Вычислительные узлы оснащены процессорами Intel Xeon, работающими на частотах 2.2-3.1 ГГц, 48-384 гигабайтами оперативной памяти и графическими ускорителями NVIDIA Tesla.
В общей сложности пользователям доступно 1542 вычислительных ядра CPU, 167 платы GPU и 13 Тбайт оперативной памяти. Система хранения суперкомпьютера «Уран» позволяет разместить до 140 Тбайт данных.
Для передачи данных между вычислительными узлами используется высокоскоростные сети Infiniband с пропускной способностью 20 Гбит/с и 100 Гбит/с. Доступ к суперкомпьютеру «Уран» осуществляется через городскую сеть УрО РАН в Екатеринбурге по технологии 10Gi Ethernet со скоростью 10 Гбит/c.
Для проведения научных и инженерных расчетов на суперкомпьютере установлено базовое программное обеспечение, включающее:
По заявкам пользователей на суперкомпьютере могут быть установлены компиляторы, библиотеки и пакеты программ, свободно распространяемые научным сообществом.
Краткое описание кластера
Кластер выполнен на базовых блоках (ББ) фирмы Hewlett-Packard . Каждый базовый блок объединяет вычислительные и коммуникационные модули.
Вычислительные узлы
Используются узлы нескольких типов, которые образуют основные разделы (partition) кластера. Внутри разделов (кроме debug) узлы связаны между собой высокоскоростной сетью Infiniband. Узлы разных разделов связаны между собой 1 Гбит/c Ethernet.
Раздел hiperf
1 узел tesla-v100 (2020.01)
1 узел tesla-a100 (2022.06)
1 узел tesla-a101 (2022.09)
Раздел apollo
16 узлов apollo[1-16] (2017.02)
20 узлов apollo[17-36] (6 — 2019.12, 1 — 2020.01, 5 — 2020.01, 4 — 2021.11, 4 — 2022.10 )
Узлы раздела apollo объединены высокоскоростной сетью Infiniband нового поколения 100 Гбит/с.
Раздел all
20 узлов tesla[1-20]
10 узлов tesla[21-30]
13 узлов tesla[33-45]
5 узлов tesla[48-52]
Узлы раздела all объединены высокоскоростной сетью Infiniband 20 Гбит/с.
Раздел debug
4 узла tesla[31-32,46-47]
Узлы раздела debug объединены сетью 1 Гбит/c Ethernet.
Коммуникационная счетная среда
В качестве MPI – интерконнекта использована хорошо себя зарекомендовавшая технология Infiniband (IB). В качестве коммутатора IB использован 144 – портовый коммутатор Qlogic 9120.
Коммуникационная среда ввода/вывода
В качестве I/O – интерконнекта использована выделенная сеть Gigabit Ethernet. Сеть имеет двухуровневую структуру. Первый уровень организован на коммутирующих модулях GbE2c Ethernet Blade Switch for HP c-Class BladeSystem, установленных в шасси ББ. К коммутирующему модулю каждого ББ внутренними гигабитными каналами подключены вычислительные модули и модуль управления. Коммутирующий модуль каждого ББ подключен к коммутатору Ethernet HP ProCurve Switch 4208v1-192. К нему подключены все ВМ, порты Host – машин, консоль управления и мониторинга.
Управляющий сервер (HOST- машина)
Управляющий сервер ВС - HP DL180G5 на основе процессоров Intel Xeon 5430.
Управляющий сервер содержит:
Прикрепленный файл | Размер |
---|---|
umt.JPG | 60.64 КБ |