Вы здесь

Международный научный семинар «Extreme Scale Scientific Computing»

Версия для печатиSend by email

30-го июня начал свою работу Международный научный семинар «Extreme Scale Scientific Computing». Семинар такого уровня проводится в рамках Академии не в первый раз и собирает в качестве докладчиков самых ярких профессионалов в этой области из разных стран мира. В докладах были представлены как общие подходы к решению задач параллельного программирования, так и решения конкретных прикладных задач.

Сатоши Мацуока посвятил свой доклад новой энергоэффективной разработке под названием TSUBAME2.0, а также алгоритмам обработки больших данных. В докладе было подробно рассказано о том, в каких областях знаний возникает потребность работать с такими объемами данных. Были упомянуты соцсети, генная инженерия и геоинформационные системы. Аудитории была продемонстрирована эффективная работа с графами больших размеров.

Современные взгляды на адаптацию алгоритмов к суперкомпьютерным вычислениям представил Дэвид Кейс. В своем докладе Дэвид рассмотрел возможности модификации различных известных в науке численных методов к работе с большими объемами данных. Также в первый день работы семинара были заслушаны доклады Ed Seidel (директор Центра суперкомпьютерных приложений США), Mateo Valero (директор Суперкомпьютерного центра Барселоны, Испания) и других широко известных специалистов.

Уникальность Академии заключается в том, что она служит единственной площадкой столь высокого уровня для повышения квалификации коллег в такой «молодой» области, как суперкомпьютерные вычисления. А двухдневный семинар «Extreme Scale Scientific Computing» стал исключительной возможностью, чтобы пообщаться с гуру в этой области знаний. Ниже рассказаны основные идеи нескольких докладов второго дня семинара.

В выступлении Томаса Стерлинга речь идет о новом механизме оценки эффективности проведения расчетов в суперкомпьютерных системах – SLOWER. Рассматриваются основные аспекты, влияющие на производительность (выделяется 4 основных "узких места"), анализируются некоторые известные подходы, используемые для повышения эффективности расчетов. Разработанная модель позволяет сравнивать производительность различных реализаций систем параллельных вычислений не только существующих, но и тех, которые появятся в будущем.

В своём докладе заместитель директора ИВМ РАН, член-корреспондент РАН, заведующий кафедрой факультета ВМК Тыртышников Е. Е. "Математические новшества для работы с чрезвычайно большими объемами данных" рассказал собравшимся об алгоритмах матричных и тензорных вычислений при наличии больших размерностей. Основная идея доклада – использование специальных декомпозиций матриц для существенного уменьшения объемов данных.

Евгений Евгеньевич привел обзор основных, наиболее эффективных подходов к решению этой группы задач. Также были освещены результаты в этой области, полученные собственно автором.

О работе немецкого центра климатических вычислений (DKRZ) аудитории рассказал Томас Людвиг. Основная канва повествования – задачи, связанные с моделированием и прогнозированием различных природных явлений. Давно известной особенностью такого рода вычислений является огромный объем данных, получаемых от различных метеостанций. Данные эти имеют особенный жизненный цикл. В докладе было рассказано об основных этапах этого цикла: получение данных, последующая обработка (расчеты), архивирование и хранение. Автор привел статистическую информацию об экспоненциальном росте объемов анализируемых данных со временем. Что, безусловно, требует и соответствующего роста производительности аппаратного обеспечения.

Также во второй день работы семинара были заслушаны доклады других широко известных специалистов. Полная программа выступлений доступна здесь: http://academy.hpc-russia.ru/files/ssa_program_v11.0.pdf

Все презентации докладчиков семинара доступны на сайте Академии для зарегистрированных пользователей.


Предложения по содержанию и функционированию сайта направляйте по адресу cmcproject@cs.msu.ru.