Исследование ускорения вычислений параллельных реализаций метода конечных элементов для уравнений мелкой воды

Содержание

Слайд 2

Подготовка входных данных о сетках и триангуляции для расчетов на многопроцессорной ВС.
Анализ

Подготовка входных данных о сетках и триангуляции для расчетов на многопроцессорной ВС.
ускорения и эффективности распараллеливания метода конечных элементов для решения краевой задачи для уравнений мелкой воды с помощью библиотеки MPI на многопроцессорной ВС.

Цели работы

Слайд 3

В данной работе:

было проведено исследование эффективности распараллеливания метода конечных элементов

В данной работе: было проведено исследование эффективности распараллеливания метода конечных элементов для
для решения краевой задачи для уравнений мелкой воды с помощью библиотеки MPI на многопроцессорной ВС. Был выполнен анализ производительности нескольких параллельных реализаций алгоритма численного решения задачи;
реализованы два алгоритма декомпозиции прямоугольной вычислительной области с триангуляцией для равномерного распределения вычислительной нагрузки по процессорам.

Слайд 4

Дифференциальная постановка прямой задачи

Дифференциальная постановка прямой задачи

Слайд 5

Уравнения (1) – уравнения мелкой воды.

Постановка дифференциальной задачи выполнена В.И. Агошковым.
Для дискретного

Уравнения (1) – уравнения мелкой воды. Постановка дифференциальной задачи выполнена В.И. Агошковым.
аналога задачи В.В.Шайдуровым и Е.Д. Кареповой получены априорные оценки устойчивости, а также показан второй порядок аппроксимации во внутренних узлах равномерной сетки.

Слайд 6

Векторно-матричная форма дискретного аналога. Потенциальный параллелизм

Векторно-матричная форма дискретного аналога. Потенциальный параллелизм

Слайд 7

Декомпозиция области

Без теневых граней
Исходная область не включает взаимно перекрывающиеся подобласти.
Пересчет

Декомпозиция области Без теневых граней Исходная область не включает взаимно перекрывающиеся подобласти.
значений на границах между подобластями предполагает обмен с дополнительным суммированием при обмене на каждой итерации Якоби

С теневыми гранями
Исходная область включает взаимно перекрывающиеся подобласти.
Невязка в итерации Якоби в граничных точках i-го процесса насчитывается в подобласти соседних процессов. Семиточечный шаблон предполагает перекрытие в два слоя расчетных точек.

Слайд 8

Однородное распределение данных по компьютерам

Баланса времени
затрачиваемого на вычисления
затрачиваемого на взаимодействия ветвей

Однородное распределение данных по компьютерам Баланса времени затрачиваемого на вычисления затрачиваемого на
параллельной программы
Требуемый результат
равенство объёмов распределяемых частей данных

Слайд 9

Программа распределения данных по процессам

Написана на языке программирования С
На входе
файл, описывающий

Программа распределения данных по процессам Написана на языке программирования С На входе
сетку координат с батиметрией
файл, описывающий триангуляцию
На выходе
файлы, подготовленные для каждого процесса, описывающие декомпозицию (содержат информацию об общих данных и теневых гранях) и соответствующую часть сетки координат с батиметрией
файлы триангуляции , также подготовленные для каждого процесса

Слайд 10

Отметим, что поскольку декомпозиция с теневыми гранями на P процессов требует дополнительного

Отметим, что поскольку декомпозиция с теневыми гранями на P процессов требует дополнительного
хранения в каждой граничной точке подобласти семь коэффициентов матрицы жесткости, три значения вектора решения текущей и предыдущей итерации и значение правой части, то необходимо на
28(P-1)N_bnd*SizeOfDouble байт
больше, чем для декомпозиции без перекрытий.

Слайд 11

Типы обменов. Блокирующие передачи

Реализации обменов по цепочке процессов с помощью

Типы обменов. Блокирующие передачи Реализации обменов по цепочке процессов с помощью функций
функций совмещенных приема-передачи MPI_Sendrecv(...).
Все процессы кроме последнего отправляют данные своим правым соседям и от них же ожидают поступления данных.
Все, кроме первого процесса, посылают данные своим левым соседям и ожидают поступления данных от них же.

Возвращение из функции подразумевает полное окончание операции, т.е. вызывающий процесс блокируется

Слайд 12

Типы обменов. Неблокирующие передачи

Неблокирующие функции подразумевают совмещение операций обмена с другими операциями
Время,

Типы обменов. Неблокирующие передачи Неблокирующие функции подразумевают совмещение операций обмена с другими
затрачиваемое на обмены с использованием неблокирующих передач не зависят от количества участвующих в обменах процессов

Слайд 13

Численные эксперименты

Численные эксперименты

Слайд 14

Кластер МВС-1000/ИВМ неоднородной архитектуры (собственная сборка ИВМ СО РАН)

99 вычислительных ядра
23 вычислительных

Кластер МВС-1000/ИВМ неоднородной архитектуры (собственная сборка ИВМ СО РАН) 99 вычислительных ядра
узла AMD Athlon64/3500+/1Гb (однопроцессорные, одноядерные);
12 вычислительных узлов AMD Athlon64 X2 Dual Core/4800+/2Гб (однопроцессорные, двухъядерные);
12 вычислительных узлов AMD Athlon64 X2 Dual Operon 2216МГц/4Гб (двупроцессорные, двухъядерные);
управляющий узел, сервер доступа и файловый сервер Athlon64/3500+/1Gb с общей дисковой памятью 400 Гб;
управляющая сеть кластера - FastEthernet (100 Мбит/сек);
сеть передачи данных - GigaEthernet (1000 Мбит/сек).

Слайд 15

Задача с точным решением на модельной сетке 801 x 801

Задача с точным решением на модельной сетке 801 x 801

Слайд 16

Кластер Skif Cyberia (ТГУ)

Архитектура x86 с поддержкой 64 разрядных расширений. Количество вычислительных

Кластер Skif Cyberia (ТГУ) Архитектура x86 с поддержкой 64 разрядных расширений. Количество
узлов/процессоров 283/566 (один узел - управляющий) (1132 ядра)
Тип процессора: двухъядерный Intel®Xeon® 5150, 2,66ГГц (Woodcrest)
Скорость передачи сообщений между узлами 950 Мб/сек с задержкой не более 2,5 мкс
Пиковая производительность 12 Тфлопс
Реальная производительность на тесте Linpack 9,013 Тфлопс (75% от пиковой)
Суммарный объем оперативной памяти 1 136 Гб
Суммарный объем дискового пространства 22,56 Тб Внешняя дисковая система хранения данных 10 Тб Параллельная файловая система суммарная пропускная способность 700 Мб/сек
Потребляемая мощность 90 КВт

Слайд 18

Сравнение результатов с теоретическими оценками

Сравнение результатов с теоретическими оценками

Слайд 19

Время неблокирующих обменов 801x801 без перекрытий

Время неблокирующих обменов 801x801 без перекрытий

Слайд 20

Время вычислений 801x801 без перекрытий

Время вычислений 801x801 без перекрытий

Слайд 21

Результаты исследования показали, что
ускорение вычислений при увеличении количества процессов для сеток больших

Результаты исследования показали, что ускорение вычислений при увеличении количества процессов для сеток
размерностей не убывает и близко к линейному. Вычислительные эксперименты по изучению ускорения демонстрируют хорошее согласование с теоретическими оценками
поведение ускорения сильно зависит от особенностей архитектуры используемой вычислительной системы. Неоднородность архитектуры может влиять на величину ускорения не лучшим образом и приводить к необоснованно большому времени, затрачиваемому на вычисления при использовании нескольких процессов
Имя файла: Исследование-ускорения-вычислений-параллельных-реализаций-метода-конечных-элементов-для-уравнений-мелкой-воды.pptx
Количество просмотров: 63
Количество скачиваний: 0