Основы OpenMP

Содержание

Слайд 2

OpenMP: Что это?

Стандарт, позволяющий распараллеливать вычисления на системах с общей памятью.
Преимущества:
Простота использования.
Переносимость.
Низкие

OpenMP: Что это? Стандарт, позволяющий распараллеливать вычисления на системах с общей памятью.
накладные расходы.
Поддержка параллелизма по данным.

Слайд 3

Синтаксис

Compiler directives:
C/C++
#pragma omp directive [clause, …]
Fortran
!$OMP directive [clause, …]
C$OMP directive [clause, …]
*$OMP

Синтаксис Compiler directives: C/C++ #pragma omp directive [clause, …] Fortran !$OMP directive
directive [clause, …]

Слайд 4

Параллельное исполнение

Parallel Regions
Основная конструкция OpenMP
#pragma omp parallel
#pragma omp parallel
{
printf( “hello world from

Параллельное исполнение Parallel Regions Основная конструкция OpenMP #pragma omp parallel #pragma omp
thread %d of %d\n”, omp_get_thread_num(),
omp_get_num_threads() );
}

Слайд 5

Параллельное исполнение

Итак, большинство конструкций OpenMP – это дерективы компилятора
Основная конструкция OpenMP это

Параллельное исполнение Итак, большинство конструкций OpenMP – это дерективы компилятора Основная конструкция
omp parallel [something]

Слайд 6

OpenMP подход к параллелизму

OpenMP основано на модели разделяемой памяти.
Вычислительная задача распределяется на

OpenMP подход к параллелизму OpenMP основано на модели разделяемой памяти. Вычислительная задача
потоки.
– Переменные могут быть
• общими для всех потоков;
• или каждый поток работает со своей независимой копией.
Неосторожное или неправильное использование переменных может привести к неверной работе распараллеленной программы.

Слайд 7

OpenMP подход к параллелизму

Модель fork-join
Исполнение программы начинается в одном потоке (master thread).
Далее

OpenMP подход к параллелизму Модель fork-join Исполнение программы начинается в одном потоке
следует конструкция OpenMP
Основной поток создает параллельные потоки.
После завершения параллельной секции
Ожидается завершение всех параллельных потоков.
Основной поток продолжает исполнение.

Слайд 8

Основные конструкции OpenMP

#pragma omp for
Каждый поток получает свою порцию работы – data

Основные конструкции OpenMP #pragma omp for Каждый поток получает свою порцию работы
parallelism.
#pragma omp section
Каждая такая секция будет исполняться в отдельном потоке – functional parallelism.
#pragma omp single
Последовательное (не параллельное) исполнение участка программы. Только один поток исполнит этот код.

Слайд 9

OpenMP sections

#pragma omp sections [ clause [ clause ] ... ] new-line
{
[#pragma

OpenMP sections #pragma omp sections [ clause [ clause ] ... ]
omp section new-line ]
structured-block1
[#pragma omp section new-line
structured-block2 ]
...
}

Слайд 10

OpenMP sections

#pragma omp parallel
#pragma omp sections nowait
{
thread1_work();
#pragma omp section
thread2_work();
#pragma omp section
thread3_work();
#pragma omp

OpenMP sections #pragma omp parallel #pragma omp sections nowait { thread1_work(); #pragma
section
thread4_work();
}

Functional Parallelism

Слайд 11

OpenMP for directive


#pragma omp for [ clause [ clause ] ...
Непосредственно

OpenMP for directive #pragma omp for [ clause [ clause ] ...
следующий за директивой цикл будет исполнен параллельно (будет разделён по данным между исполнителями).

Слайд 12

OpenMP for directive
#pragma omp parallel private(f)
{
f=7;
#pragma omp for
for (i=0; i<20; i++)
a[i] =

OpenMP for directive #pragma omp parallel private(f) { f=7; #pragma omp for
b[i] + f * (i+1);
} /* omp end parallel */

Слайд 13

OpenMP for directive

Возможны следующие модификаторы:
private( list );
reduction( operator: list );

OpenMP for directive Возможны следующие модификаторы: private( list ); reduction( operator: list
schedule( type [ , chunk ] );
nowait (для #pragma omp for).
В конце цикла for происходит синхронизация, если не указана директива nowait.
schedule указывает, как итерации распределятся среди потоков (поведение по умолчанию зависит от реализации).

Слайд 14

Переменные в OpenMP

private ( list )
Будут созданы уникальные локальные копии перечисленных переменных.
shared

Переменные в OpenMP private ( list ) Будут созданы уникальные локальные копии
( list )
Потоки разделяют одну переменную.
firstprivate ( list )
Создаются локальные переменные, инициализированные значением из основного потока.
lastprivate ( list )
После завершения последней итерации значение переменной копируется в переменную основного потока.

По умолчанию все переменные shared, кроме локальных переменных в вызываемых функциях и счётчиков цикла.

Слайд 15

Пример

int x;
x = 0; // Initialize x to zero
#pragma omp parallel for firstprivate(x)

Пример int x; x = 0; // Initialize x to zero #pragma
// Copy value // of x
// from master
for (i = 0; i < 10000; i++) {
x = x + i;
}
printf( “x is %d\n”, x ); // Print out value of x
/* Actually needs lastprivate(x) to copy value back out to master */

Слайд 16

OpenMP schedule clause

Разбиение итераций цикла по потокам или «диспетчеризация»
schedule( type [

OpenMP schedule clause Разбиение итераций цикла по потокам или «диспетчеризация» schedule( type
, chunk ] )
type может принимать следующие значения:
static: Статическая диспетчеризация. Каждый поток получает фиксированное количество итераций.
dynamic: Динамическая диспетчеризация.
guided: Фактически, постепенно уменьшающееся количество итераций.
runtime: Тип диспетчеризации определяется в момент исполнения, в зависимости от значения переменных окружения.

Слайд 17

Loop scheduling (планирование выполнения итераций цикла)

Loop scheduling (планирование выполнения итераций цикла)

Слайд 18

Основные функции OpenMP

int omp_get_num_threads(void);
int omp_get_thread_num(void);

http://www.openmp.org/

Основные функции OpenMP int omp_get_num_threads(void); int omp_get_thread_num(void); … http://www.openmp.org/

Слайд 19

Синхронизация в OpenMP

Неявная синхронизация происходит в начале и конце любой конструкции

Синхронизация в OpenMP Неявная синхронизация происходит в начале и конце любой конструкции
parallel
(до тех пор, пока не указана директива nowait).

Слайд 20

Синхронизация в OpenMP

сritical – критическая секция. Не может исполняться одновременно несколькими потоками.
atomic

Синхронизация в OpenMP сritical – критическая секция. Не может исполняться одновременно несколькими
– специальная версия критической секции для атомарных операций (таких, как запись переменной).
barrier – точка синхронизации всех потоков.
ordered – последовательное исполнение.
master – только основной поток исполняет следующий код.

Слайд 21

OpenMP critical

cnt = 0;
f=7;
#pragma omp parallel
{
#pragma omp for
for (i=0; i<20; i++) {
if

OpenMP critical cnt = 0; f=7; #pragma omp parallel { #pragma omp
(b[i] == 0) {
#pragma omp critical
cnt ++;
} /* endif */
a[i] = b[i] + f * (i+1);
} /* end for */
} /*omp end parallel */

Слайд 22

Полная информация

OpenMP Homepage: http://www.openmp.org/
Introduction to OpenMP - tutorial from WOMPEI 2000 (link)

Полная информация OpenMP Homepage: http://www.openmp.org/ Introduction to OpenMP - tutorial from WOMPEI

Writing and Tuning OpenMP Programs on Distributed Shared Memory Machines (link)
R.Chandra, L. Dagum, D. Kohr, D. Maydan, J. McDonald, R. Menon:
Parallel programming in OpenMP.
Academic Press, San Diego, USA, 2000, ISBN 1-55860-671-8
R. Eigenmann, Michael J. Voss (Eds):
OpenMP Shared Memory Parallel Programming.
Springer LNCS 2104, Berlin, 2001, ISBN 3-540-42346-X
Имя файла: Основы-OpenMP.pptx
Количество просмотров: 208
Количество скачиваний: 0