ИВМ СО РАН Поиск 
Отчеты ИВМ СО РАН

Отчет ИВМ СО РАН за 2004 год

Интеграционные, целевые, экспедиционные проекты, гранты СО РАН

Целевая программа СО РАН «СуперЭВМ»


Проект: «Разработка и использование многопроцессорных вычислительных систем для высокопроизводительных вычислений»

Руководитель:
чл.-корр. РАН В. В. Шайдуров

В течение года производилось техническое обслуживание и администрирование кластера МВС-1000/16, в том числе:

  • выполнены ремонты одного из коммутаторов и радиатора процессора управляющего узла;
  • увеличена емкость основного жесткого диска управляющего узла;
  • заведено новых пользователей — 6, из них сотрудников сторонних учебно-научных организаций — 4.

В настоящее время на кластере зарегистрировано 25 пользователей.

Ориентировочно средняя суммарная загрузка вычислительных узлов кластера составляет 40-50%. С учетом резервирования 5-ти узлов из имеющихся 15 под отладочные задачи, загрузка близка к максимально возможной.

В течение года производились консультации пользователей и решались проблемы неадекватного функционирования кластера, связанного с неисправностями оборудования или настройкой программного обеспечения.

Одной из главных задач в настоящее время является обучение и отладка параллельных программ, которые затем (в связи с недостаточной производительностью МВС-1000/16) могут запускаться на кластере МВС-1000М Межведомственного суперкомпьютерного центра. Он имеет полностью совместимое программное обеспечение и систему запуска задач как у МВС-1000/16, но существенно большую мощность. Институт координирует подключение пользователей КНЦ СО РАН к этому кластеру. В настоящее время там зарегистрировано 7 пользователей, работающих над четырьмя проектами.

С целью создания более производительного вычислительного кластера проведено исследование архитектуры и конструктивных решений современных многомашинных систем. Сделаны выводы по соотношению цены и производительности и разработаны конструктивные решения по созданию в ИВМ СО РАН кластера на основе 24 вычислительных и одного управляющего узла двухсетевой архитектуры. Закуплен телекоммуникационный шкаф и оборудование питания для половины вычислительных модулей.

Произведен анализ возможный решений по организации обмена между вычислительными узлами, в результате которого сделан вывод о целесообразности использовании технологии Gigabit Ethernet в связи с более низкой стоимостью и удовлетворительной производительностью. Произведен сравнительный анализ характеристик имеющихся на рынке коммутаторов, выбраны и закуплены два коммутатора: для организации сети управления и поддержки сетевой файловой системы, а также сети обмена данными между вычислительными модулями.

Выполнено комплексное сравнительное тестирование двух узлов различной архитектуры (Pentium-4 и AMD-64), с использованием трех различных компиляторов; обоснован выбор в пользу архитектуры AMD-64 в силу более высокой вычислительной производительности. Приобретен управляющий модуль и 12 вычислительных модулей на процессорах АМD-64.

Рассмотрены технологические решения по охлаждению вычислительной системы. Запланирована организация замкнутого внутреннего воздушного контура охлаждения и внешнего воздушного охлаждения с отводом горячего воздуха за пределы помещения. Приобретен кондиционер для телекоммуникационного шкафа с мощностью охлаждения 4 КВт.

Таким образом, к концу этого года приобретено более половины оборудования, проведены работы по монтажу и установке и начата настройка программного обеспечения для работы кластера МВС-1000/25 во временном, 12-процессорном режиме.

Основные публикации:

  1. Исаев С. В., Малышев А. В., Шайдуров В. В.
    Красноярская сеть параллельных вычислений // Материалы III школы-семинара «Распределенные и кластерные вычисления». — Красноярск: ИВМ СО РАН. — 2004. — С. 67-77.

(Лаборатория вычислительной техники и телекоммуникаций)

К началу