Основы параллельного программирования с использованием MPI Лекция 4

Содержание

Слайд 2

Лекция 4

2008

Аннотация
В лекции описываются средства организации неблокирующих двухточечных обменов. Рассматриваются операции неблокирующих

Лекция 4 2008 Аннотация В лекции описываются средства организации неблокирующих двухточечных обменов.
отправки и приёма сообщений, процедуры-пробники, отложенные обмены. Даются примеры использования как блокирующих, так и неблокирующих двухточечных операций.

Слайд 3

План лекции

2008

Пример использования блокирующих двухточечных
обменов
Общая характеристика неблокирующих обменов.

План лекции 2008 Пример использования блокирующих двухточечных обменов Общая характеристика неблокирующих обменов.
Неблокирующие передача и приём.
Проверка выполнения неблокирующих обменов.
Пробники.
Отложенные обмены.

Слайд 4

Одномерное уравнение Лапласа. Метод Якоби

2008

Одномерное уравнение Лапласа. Метод Якоби 2008

Слайд 5

Уравнение Лапласа

2008

В качестве примера использования операций двухточечного обмена рассмотрим численное решение уравнения

Уравнение Лапласа 2008 В качестве примера использования операций двухточечного обмена рассмотрим численное
Лапласа в случае 1 и 2 измерений:

где

- оператор Лапласа:

- одномерный;

- двумерный и т.д.

- значение решения на границе области,

Слайд 6

Уравнение Лапласа

2008

Численное решение основано на введении 1- или 2-мерной сетки в области,

Уравнение Лапласа 2008 Численное решение основано на введении 1- или 2-мерной сетки
ограниченной границей

Метод Якоби является итерационным методом. Сначала задаются произвольные значения функции u в узлах сетки, затем выполняются итерации (1-мерный случай):

где

- значение u в i-м узле, полученное на k-й итерации.

Слайд 7

Уравнение Лапласа

2008

Последовательная программа на языке Fortran 90

Уравнение Лапласа 2008 Последовательная программа на языке Fortran 90

Слайд 8

Уравнение Лапласа

2008

program jacobi_serial
implicit none
real, dimension(0:10001) :: x, newx
real :: dx2
integer :: n,

Уравнение Лапласа 2008 program jacobi_serial implicit none real, dimension(0:10001) :: x, newx
noiters, i, k
open(unit = 12, file = "laplace1d.in")
! Number of cells
read(12, *) n
! Number of iterations
read(12, *) noiters
close(12)
dx2 = (1. / n)**2
do i = 1, n
x(i) = 1.0
enddo

Слайд 9

Уравнение Лапласа

2008

x(0) = 0.0
x(n + 1) = 0.0
do k = 1, noiters

Уравнение Лапласа 2008 x(0) = 0.0 x(n + 1) = 0.0 do
do i = 1, n
newx(i) = 0.5 * (x(i - 1) + x(i + 1) - dx2 * x(i))
enddo
do i =1, n
x(i) = newx(i)
enddo
enddo
open(unit = 11, file = "laplace1d_serial.dat", status = "NEW")
write(11, "(2x, e8.3)") (x(i), i = 1, n)
close(11)
end

Слайд 10

Уравнение Лапласа

2008

Параллельная программа на языке Fortran 90

Уравнение Лапласа 2008 Параллельная программа на языке Fortran 90

Слайд 11

Уравнение Лапласа

2008

Параллельный алгоритм
Параллельный алгоритм основан на декомпозиции по данным – разбиении одномерной

Уравнение Лапласа 2008 Параллельный алгоритм Параллельный алгоритм основан на декомпозиции по данным
сетки на одинаковые части. Каждая часть обрабатывается на отдельном процессоре. Обмен заключается в пересылке значений функции в граничных узлах. Он может быть организован с помощью операций двухточечного обмена:

Слайд 12

Уравнение Лапласа

2008

program jacobi_parallel
implicit none
include "mpif.h"
real, dimension(0:10001) :: x,newx
real :: dx2
integer :: n,

Уравнение Лапласа 2008 program jacobi_parallel implicit none include "mpif.h" real, dimension(0:10001) ::
noiters, i, k
integer :: p, me, ln, tag, ierr
integer, dimension(MPI_STATUS_SIZE) :: status
! Ввод исходных данных
open(unit = 12, file = "laplace1d.in")
! Number of cells
read(12, *) n
! Number of iterations
read(12, *) noiters
close(12)
dx2 = (1. / n)**2

Слайд 13

Уравнение Лапласа

2008

call MPI_Init(ierr)
call MPI_Comm_rank(MPI_COMM_WORLD, me, ierr)
call MPI_Comm_size(MPI_COMM_WORLD, p, ierr)
tag = 0
ln =

Уравнение Лапласа 2008 call MPI_Init(ierr) call MPI_Comm_rank(MPI_COMM_WORLD, me, ierr) call MPI_Comm_size(MPI_COMM_WORLD, p,
n / p
do i = 1, ln
x(i) = 1.0
enddo
if(me = = 0) then
x(0) = 0.0; lm = 0
else
lm = ln * me
endif
if(me = = p - 1) then
x(ln + 1) = 0.0
endif

Слайд 14

Уравнение Лапласа

2008

do k = 1, noiters
! Пересылки граничных значений
if(me - 1

Уравнение Лапласа 2008 do k = 1, noiters ! Пересылки граничных значений
>= 0) call MPI_Send(newx(1), 1, MPI_REAL, me - 1, tag, MPI_COMM_WORLD, ierr)
if(me + 1 < p) call MPI_Recv(x(ln + 1), 1, MPI_REAL, me + 1, tag, MPI_COMM_WORLD, status, ierr)
tag = tag + 1
if(me + 1 < p) call MPI_Send(newx(ln), 1, MPI_REAL, me + 1, tag, MPI_COMM_WORLD, ierr)
if(me - 1 >= 0) call MPI_Recv(x(0), 1, MPI_REAL, me - 1, tag, MPI_COMM_WORLD, status, ierr)
tag = tag + 1
! Итерации Якоби
do i = 1, ln
newx(i) = 0.5 * (x(i - 1) + x(i + 1) - dx2 * x(i))
enddo
do i = 1, ln
x(i) = newx(i)
enddo
enddo

Слайд 15

Уравнение Лапласа

2008

! Собираем решение
if(me = = 0) then
do i = 1,

Уравнение Лапласа 2008 ! Собираем решение if(me = = 0) then do
ln
z(i) = x(i)
enddo
do k = 1, p - 1
lm = ln * k
call MPI_Recv(z(lm), ln, MPI_REAL, k, k, MPI_COMM_WORLD, status, ierr)
enddo
else
call MPI_Send(x(1), ln, MPI_REAL, 0, me, MPI_COMM_WORLD, ierr)
endif
call MPI_Finalize(ierr)
! Запись результата в файл
if(me = = 0) then
open(unit = 11, file = "laplace1d_parallel.dat", status = "NEW")
write(11, "(2x, e8.3)") (z(i), i = 1, n)
close(11)
endif
end

Слайд 16

Неблокирующие двухточечные обмены

2008

Неблокирующие двухточечные обмены 2008

Слайд 17

Неблокирующие обмены

2008

Вызов подпрограммы неблокирующей передачи инициирует, но не завершает ее. Завершиться выполнение

Неблокирующие обмены 2008 Вызов подпрограммы неблокирующей передачи инициирует, но не завершает ее.
подпрограммы может еще до того, как сообщение будет скопировано в буфер передачи.
Применение неблокирующих операций улучшает производительность программы, поскольку в этом случае допускается перекрытие (то есть одновременное выполнение) вычислений и обменов. Передача данных из буфера или их считывание может происходить одновременно с выполнением процессом другой работы.

Слайд 18

Неблокирующие обмены

2008

Для завершения неблокирующего обмена требуется вызов дополнительной процедуры, которая проверяет, скопированы

Неблокирующие обмены 2008 Для завершения неблокирующего обмена требуется вызов дополнительной процедуры, которая
ли данные в буфер передачи.
ВНИМАНИЕ!
При неблокирующем обмене возвращение из подпрограммы обмена происходит сразу, но запись в буфер или считывание из него после этого производить нельзя - сообщение может быть еще не отправлено или не получено и работа с буфером может «испортить» его содержимое.

Слайд 19

Неблокирующие обмены

2008

Неблокирующий обмен выполняется в два этапа:
инициализация обмена;
проверка завершения обмена.
Разделение

Неблокирующие обмены 2008 Неблокирующий обмен выполняется в два этапа: инициализация обмена; проверка
этих шагов делает необходимым маркировку каждой
операции обмена, которая позволяет целенаправленно выполнять
проверки завершения соответствующих операций.
Для маркировки в неблокирующих операциях используются
идентификаторы операций обмена

Слайд 20

Неблокирующие обмены

2008

Инициализация неблокирующей стандартной передачи выполняется подпрограммами MPI_I[S, B, R]send. Стандартная неблокирующая

Неблокирующие обмены 2008 Инициализация неблокирующей стандартной передачи выполняется подпрограммами MPI_I[S, B, R]send.
передача выполняется подпрограммой:
int MPI_Isend(void *buf, int count, MPI_Datatype datatype, int dest, int tag, MPI_Comm comm, MPI_Request *request)
MPI_Isend(buf, count, datatype, dest, tag, comm, request, ierr)
Входные параметры этой подпрограммы аналогичны аргументам подпрограммы MPI_Send.
Выходной параметр request - идентификатор операции.

Слайд 21

Неблокирующие обмены

2008

Инициализация неблокирующего приема выполняется при вызове подпрограммы:
int MPI_Irecv(void *buf, int count,

Неблокирующие обмены 2008 Инициализация неблокирующего приема выполняется при вызове подпрограммы: int MPI_Irecv(void
MPI_Datatype datatype, int source, int tag, MPI_Comm comm, MPI_Request *request)
MPI_Irecv(buf, count, datatype, source, tag, comm, request, ierr)
Назначение аргументов здесь такое же, как и в ранее рассмотренных подпрограммах, за исключением того, что указывается ранг не адресата, а источника сообщения (source).

Слайд 22

Неблокирующие обмены

2008

Вызовы подпрограмм неблокирующего обмена формируют
запрос на выполнение операции обмена и

Неблокирующие обмены 2008 Вызовы подпрограмм неблокирующего обмена формируют запрос на выполнение операции
связывают его с
идентификатором операции request. Запрос идентифицирует свойства операции обмена:
режим;
характеристики буфера обмена;
контекст;
тег и ранг.
Запрос содержит информацию о состоянии ожидающих обработки операций обмена и может быть использован для получения информации о состоянии обмена или для ожидания его завершения.

Слайд 23

Неблокирующие обмены

2008

Проверка выполнения обмена
Проверка фактического выполнения передачи или приема в неблокирующем режиме

Неблокирующие обмены 2008 Проверка выполнения обмена Проверка фактического выполнения передачи или приема
осуществляется с помощью вызова подпрограмм ожидания, блокирующих работу процесса до завершения операции или неблокирующих подпрограмм проверки,
возвращающих логическое значение «истина», если операция выполнена

Слайд 24

Неблокирующие обмены

2008

В том случае, когда одновременно несколько процессов
обмениваются сообщениями, можно использовать

Неблокирующие обмены 2008 В том случае, когда одновременно несколько процессов обмениваются сообщениями,
проверки,
которые применяются одновременно к нескольким обменам.
Есть три типа таких проверок:
проверка завершения всех обменов;
проверка завершения любого обмена из нескольких;
проверка завершения заданного обмена из нескольких.
Каждая из этих проверок имеет две разновидности:
«ожидание»;
«проверка».

Слайд 25

Неблокирующие обмены

2008

Блокирующие операции проверки
Подпрограмма MPI_Wait блокирует работу процесса до завершения приема или

Неблокирующие обмены 2008 Блокирующие операции проверки Подпрограмма MPI_Wait блокирует работу процесса до
передачи сообщения:
int MPI_Wait(MPI_Request *request, MPI_Status *status)
MPI_Wait(request, status, ierr)
Входной параметр request ⎯ идентификатор операции обмена, выходной ⎯ статус (status).

Слайд 26

Неблокирующие обмены

2008

Успешное выполнение подпрограммы MPI_Wait после вызова MPI_Ibsend подразумевает, что буфер передачи

Неблокирующие обмены 2008 Успешное выполнение подпрограммы MPI_Wait после вызова MPI_Ibsend подразумевает, что
можно использовать вновь, то есть пересылаемые данные отправлены или скопированы в буфер, выделенный при вызове подпрограммы MPI_Buffer_attach.
В этот момент уже нельзя отменить передачу. Если не будет зарегистрирован соответствующий прием, буфер нельзя будет освободить. В этом случае можно применить подпрограмму MPI_Cancel, которая освобождает память, выделенную подсистеме коммуникаций.

Слайд 27

Неблокирующие обмены

2008

Проверка завершения всех обменов
Проверка завершения всех обменов выполняется подпрограммой:
int MPI_Waitall(int count,

Неблокирующие обмены 2008 Проверка завершения всех обменов Проверка завершения всех обменов выполняется
MPI_Request requests[], MPI_Status statuses[])
MPI_Waitall(count, requests, statuses, ierr)
При вызове этой подпрограммы выполнение процесса блокируется до тех пор, пока все операции обмена, связанные с активными запросами в массиве requests, не будут выполнены. Возвращается статус этих операций. Статус обменов содержится в массиве statuses. count - количество запросов на обмен (размер массивов requests и statuses).

Слайд 28

Неблокирующие обмены

2008

В результате выполнения подпрограммы MPI_Waitall запросы, сформированные неблокирующими операциями обмена, аннулируются,

Неблокирующие обмены 2008 В результате выполнения подпрограммы MPI_Waitall запросы, сформированные неблокирующими операциями
а соответствующим элементам массива присваивается значение MPI_REQUEST_NULL.
В случае неуспешного выполнения одной или более операций обмена подпрограмма MPI_Waitall возвращает код ошибки MPI_ERR_IN_STATUS и присваивает полю ошибки статуса значение кода ошибки соответствующей операции.
Если операция выполнена успешно, полю присваивается значение MPI_SUCCESS, а если не выполнена, но и не было ошибки - значение MPI_ERR_PENDING. Это соответствует наличию запросов на выполнение операции обмена, ожидающих обработки.

Слайд 29

Неблокирующие обмены

2008

Проверка завершения любого числа обменов
Проверка завершения любого числа обменов выполняется подпрограммой:
int

Неблокирующие обмены 2008 Проверка завершения любого числа обменов Проверка завершения любого числа
MPI_Waitany(int count, MPI_Request requests[], int *index, MPI_Status *status)
MPI_Waitany(count, requests, index, status, ierr)
Выполнение процесса блокируется до тех пор, пока, по крайней мере, один обмен из массива запросов (requests) не будет завершен.
Входные параметры:
requests - запрос;
count - количество элементов в массиве requests.
Выходные параметры:
index - индекс запроса (в языке C это целое число от 0 до count – 
1, а в языке Fortran от 1 до count) в массиве requests;
status - статус.

Слайд 30

Неблокирующие обмены

2008

Если в списке вообще нет активных запросов или он пуст, вызовы

Неблокирующие обмены 2008 Если в списке вообще нет активных запросов или он
завершаются сразу со значением индекса MPI_UNDEFINED и пустым статусом.

Слайд 31

Неблокирующие обмены

2008

Неблокирующие процедуры проверки
Подпрограмма MPI_Test выполняет неблокирующую проверку
завершения приема или передачи

Неблокирующие обмены 2008 Неблокирующие процедуры проверки Подпрограмма MPI_Test выполняет неблокирующую проверку завершения
сообщения:
int MPI_Test(MPI_Request *request, int *flag, MPI_Status *status)
MPI_Test(request, flag, status, ierr)
Входной параметр: идентификатор операции обмена request.
Выходные параметры:
flag ⎯ «истина», если операция, заданная идентификатором
request, выполнена;
status ⎯ статус выполненной операции.

Слайд 32

Неблокирующие обмены

2008

Неблокирующая проверка завершения всех обменов
Подпрограмма MPI_Testall выполняет неблокирующую проверку
завершения приема

Неблокирующие обмены 2008 Неблокирующая проверка завершения всех обменов Подпрограмма MPI_Testall выполняет неблокирующую
или передачи всех сообщений:
int MPI_Testall(int count, MPI_Request requests[], int *flag, MPI_Status statuses[])
MPI_Testall(count, requests, flag, statuses, ierr)
При вызове возвращается значение флага (flag) «истина», если все обмены, связанные с активными запросами в массиве requests, выполнены. Если завершены не все обмены, флагу присваивается значение «ложь», а массив statuses не определен.
Параметр count - количество запросов.
Каждому статусу, соответствующему активному запросу, присваивается значение статуса соответствующего обмена.

Слайд 33

Неблокирующие обмены

2008

Неблокирующая проверка любого числа обменов
Подпрограмма MPI_Testany выполняет неблокирующую проверку
завершения приема

Неблокирующие обмены 2008 Неблокирующая проверка любого числа обменов Подпрограмма MPI_Testany выполняет неблокирующую
или передачи сообщения:
int MPI_Testany(int count, MPI_Request requests[], int *index, int *flag, MPI_Status *status)
MPI_Testany(count, requests, index, flag, status, ierr)
Смысл и назначение параметров этой подпрограммы те же, что и для подпрограммы MPI_Waitany. Дополнительный аргумент flag, принимает значение «истина», если одна из операций завершена.
Блокирующая подпрограмма MPI_Waitany и неблокирующая MPI_Testany взаимозаменяемы, как и другие аналогичные пары.

Слайд 34

Неблокирующие обмены

2008

Другие операции проверки
Подпрограммы MPI_Waitsome и MPI_Testsome действуют аналогично подпрограммам MPI_Waitany и

Неблокирующие обмены 2008 Другие операции проверки Подпрограммы MPI_Waitsome и MPI_Testsome действуют аналогично
MPI_Testany, кроме случая, когда завершается более одного обмена. В подпрограммах MPI_Waitany и MPI_Testany обмен из числа завершенных выбирается произвольно, именно для него и возвращается статус, а для MPI_Waitsome и MPI_Testsome статус возвращается для всех завершенных обменов. Эти подпрограммы можно использовать для определения, сколько обменов завершено.

Слайд 35

Неблокирующие обмены

2008

Интерфейс этих подпрограмм:
int MPI_Waitsome(int incount, MPI_Request requests[], int *outcount, int indices[],

Неблокирующие обмены 2008 Интерфейс этих подпрограмм: int MPI_Waitsome(int incount, MPI_Request requests[], int
MPI_Status statuses[])
MPI_Waitsome(incount, requests, outcount, indices, statuses, ierr)
Здесь incount - количество запросов. В outcount возвращается количество выполненных запросов из массива requests, а в первых outcount элементах массива indices возвращаются индексы этих операций. В первых outcount элементах массива statuses возвращается статус завершенных операций. Если выполненный запрос был сформирован неблокирующей операцией обмена, он аннулируется. Если в списке нет активных запросов, выполнение подпрограммы завершается сразу, а параметру outcount присваивается значение MPI_UNDEFINED.

Слайд 36

Неблокирующие обмены

2008

Неблокирующая проверка выполнения обменов
int MPI_Testsome(int incount, MPI_Request requests[], int *outcount, int

Неблокирующие обмены 2008 Неблокирующая проверка выполнения обменов int MPI_Testsome(int incount, MPI_Request requests[],
indices[], MPI_Status statuses[])
MPI_Testsome(incount, requests, outcount, indices, statuses, ierr)
Параметры такие же, как и у подпрограммы MPI_Waitsome. Эффективность подпрограммы MPI_Testsome выше, чем у MPI_Testany, поскольку первая возвращает информацию обо всех операциях, а для второй требуется новый вызов для каждой выполненной операции.

Слайд 37

Примеры использования неблокирующих двухточечных обменов

2008

Примеры использования неблокирующих двухточечных обменов 2008

Слайд 38

Неблокирующие обмены

2008

Пример 1
program main_mpi
include 'mpif.h'
integer rank, tag, cnt, ierr, status(MPI_STATUS_SIZE)
integer request
real sndbuf(5)

Неблокирующие обмены 2008 Пример 1 program main_mpi include 'mpif.h' integer rank, tag,
/1., 2., 3., 4., 5./
real rcvbuf(5)
cnt = 5
tag = 0
call MPI_Init(ierr)
call MPI_Comm_rank(MPI_COMM_WORLD, rank, ierr)

Слайд 39

Неблокирующие обмены

2008

if(rank.eq.0) then
call MPI_Isend(sndbuf(1), cnt, MPI_REAL, 1, tag, MPI_COMM_WORLD, request, ierr)
print *,

Неблокирующие обмены 2008 if(rank.eq.0) then call MPI_Isend(sndbuf(1), cnt, MPI_REAL, 1, tag, MPI_COMM_WORLD,
"process ", rank, " send before Wait", sndbuf
call MPI_Wait(request, status, ierr)
print *, "process ", rank, " send after Wait", sndbuf
else
call MPI_Irecv(rcvbuf(1), cnt, MPI_REAL, 0, tag, MPI_COMM_WORLD, request, ierr)
print *, "process ", rank, " received before Wait", rcvbuf
call MPI_Wait(request, status, ierr)
print *, "process ", rank, " received after Wait", rcvbuf
end if
call MPI_Finalize(ierr)
stop
end

Слайд 40

Неблокирующие обмены

2008

Результат выполнения:

Неблокирующие обмены 2008 Результат выполнения:

Слайд 41

Неблокирующие обмены

2008

Пример 2
program main_mpi
include 'mpif.h'
integer rank, tag1, tag2, cnt, ierr, status(MPI_STATUS_SIZE)
integer request
real

Неблокирующие обмены 2008 Пример 2 program main_mpi include 'mpif.h' integer rank, tag1,
sndbuf1, sndbuf2, rcvbuf1, rcvbuf2
cnt = 1
tag = 0
sndbuf1 = 3.14159
sndbuf2 = 2.71828
call MPI_Init(ierr)
call MPI_Comm_rank(MPI_COMM_WORLD, rank, ierr)

Слайд 42

Неблокирующие обмены

2008

if (rank.eq.0) then
call MPI_Ssend(sndbuf1, cnt, MPI_REAL, 1, tag1, MPI_COMM_WORLD, ierr)
print *,

Неблокирующие обмены 2008 if (rank.eq.0) then call MPI_Ssend(sndbuf1, cnt, MPI_REAL, 1, tag1,
"process ", rank, " send ", sndbuf1
call MPI_Send(sndbuf2, cnt, MPI_REAL, 1, tag2, MPI_COMM_WORLD, ierr)
print *, "process ", rank, " send ", sndbuf2
else
call MPI_Irecv(rcvbuf1, cnt, MPI_REAL, 0, tag1, MPI_COMM_WORLD, request, ierr)
call MPI_Recv(rcvbuf2, cnt, MPI_REAL, 0, tag2, MPI_COMM_WORLD, status, ierr)
print *, "process ", rank, " received before Wait", rcvbuf1
print *, "process ", rank, " received before Wait", rcvbuf2
call MPI_Wait(request, status, ierr)
print *, "process ", rank, " received after Wait", rcvbuf1
print *, "process ", rank, " received after Wait", rcvbuf2
end if
call MPI_Finalize(ierr)
end

Слайд 43

Неблокирующие обмены

2008

Результат выполнения:

Неблокирующие обмены 2008 Результат выполнения:

Слайд 44

Подпрограммы-пробники

2008

Подпрограммы-пробники 2008

Слайд 45

Неблокирующие обмены

2008

Неблокирующая проверка сообщения
Неблокирующая проверка сообщения выполняется подпрограммой:
int MPI_Iprobe(int source, int tag,

Неблокирующие обмены 2008 Неблокирующая проверка сообщения Неблокирующая проверка сообщения выполняется подпрограммой: int
MPI_Comm comm, int *flag, MPI_Status *status)
MPI_Iprobe(source, tag, comm, flag, status, ierr)
Входные параметры этой подпрограммы те же, что и у подпрограммы MPI_Probe. Выходные параметры:
flag - флаг;
status - статус.
Если сообщение уже поступило и может быть принято, возвращается значение флага «истина».

Слайд 46

Неблокирующие обмены

2008

Размер полученного сообщения (count) можно определить с помощью вызова подпрограммы
int

Неблокирующие обмены 2008 Размер полученного сообщения (count) можно определить с помощью вызова
MPI_Get_count(MPI_Status *status, MPI_Datatype datatype, int *count)
MPI_Get_count(status, datatype, count, ierr)
Параметры:
count -  количество элементов в буфере передачи;
datatype - тип каждого пересылаемого элемента;
status - статус обмена;
ierr - код завершения.
Аргумент datatype должен соответствовать типу данных, указанному в операции обмена.

Слайд 47

Неблокирующие обмены

2008

Пример 3
program main_mpi
include 'mpif.h'
integer rank, i, k, ierr, tag, dest, status(MPI_status_size)
real

Неблокирующие обмены 2008 Пример 3 program main_mpi include 'mpif.h' integer rank, i,
x
tag = 0
dest = 2
call MPI_Init(ierr)
call MPI_Comm_rank(MPI_COMM_WORLD, rank, ierr)
if (rank.eq.0) then
i = 2002
call MPI_Send(i, 1, MPI_INTEGER, dest, tag, MPI_COMM_WORLD, ierr)
else if(rank.eq.1) then
x = 3.14159
call MPI_Send(x, 1, MPI_REAL, dest, tag, MPI_COMM_WORLD, ierr)

Слайд 48

Неблокирующие обмены

2008

do k = 1, 2
call MPI_Probe(MPI_any_source, tag, MPI_COMM_WORLD, status, ierr)

Неблокирующие обмены 2008 do k = 1, 2 call MPI_Probe(MPI_any_source, tag, MPI_COMM_WORLD,
if (status(MPI_source).eq.0) then
call MPI_Recv(i, 1, MPI_INTEGER, 0, tag, MPI_COMM_WORLD, status, ierr)
print *, "received ", i, " from 0"
else
call MPI_Recv(x, 1, MPI_REAL, 1, tag, MPI_COMM_WORLD, status, ierr)
print *, "received ", x, " from 1"
end if
end do
end if
call MPI_Finalize(ierr)
stop
end

Слайд 49

Неблокирующие обмены

2008

Результат выполнения:

Неблокирующие обмены 2008 Результат выполнения:

Слайд 50

Отложенные обмены

2008

Отложенные обмены 2008

Слайд 51

Неблокирующие обмены

2008

Достаточно часто приходится сталкиваться с ситуацией, когда обмены с одинаковыми параметрами

Неблокирующие обмены 2008 Достаточно часто приходится сталкиваться с ситуацией, когда обмены с
выполняются повторно, например, в цикле. В этом случае можно объединить аргументы подпрограмм обмена в один отложенный запрос, который затем повторно используется для инициализации и выполнения обмена сообщениями.
Отложенный запрос на выполнение неблокирующей операции обмена позволяет минимизировать накладные расходы на организацию связи между процессором и контроллером связи.
Отложенные запросы на обмен объединяют такие сведения об операциях обмена, как адрес буфера, количество пересылаемых элементов данных, их тип, ранг адресата, тег сообщения и коммуникатор.

Слайд 52

Неблокирующие обмены

2008

Запрос для стандартной передачи создается при вызове подпрограммы MPI_Send_init:
int MPI_Send_init(void *buf,

Неблокирующие обмены 2008 Запрос для стандартной передачи создается при вызове подпрограммы MPI_Send_init:
int count, MPI_Datatype datatype, int dest, int tag, MPI_Comm comm, MPI_Request *request)
MPI_Send_init(buf, count, datatype, dest, tag, comm, request, ierr)

Слайд 53

Неблокирующие обмены

2008

Отложенный запрос может быть сформирован для всех режимов обмена. Для этого

Неблокирующие обмены 2008 Отложенный запрос может быть сформирован для всех режимов обмена.
используются подпрограммы MPI_Bsend_init, MPI_Ssend_init и MPI_Rsend_init.
Отложенный обмен инициируется вызовом подпрограммы MPI_Start:
int MPI_Start(MPI_Request *request)
MPI_Start(request, ierr)

Слайд 54

Неблокирующие обмены

2008

Подпрограмма MPI_Startall:
int MPI_Startall(int count, MPI_request *requests)
MPI_Startall(count, requests, ierr)
инициирует все обмены, связанные

Неблокирующие обмены 2008 Подпрограмма MPI_Startall: int MPI_Startall(int count, MPI_request *requests) MPI_Startall(count, requests,
с запросами на выполнение неблокирующей операции обмена в массиве requests.
Завершается обмен при вызове MPI_Wait, MPI_Test и некоторых других подпрограмм.

Слайд 55

2008

В этой лекции мы рассмотрели:
примеры использования двухточечных обменов;
особенности двухточечных

2008 В этой лекции мы рассмотрели: примеры использования двухточечных обменов; особенности двухточечных
неблокирующих обменов;
реализацию неблокирующих двухточечных обменов в MPI;
использование подпрограмм-пробников;
отложенные обмены.

Заключение

Слайд 56

2008

Задания для самостоятельной работы

Решения следует высылать по электронной почте:
[email protected]

2008 Задания для самостоятельной работы Решения следует высылать по электронной почте: parallel-g112@yandex.ru

Слайд 57

2008

Задания для самостоятельной работы

Задание 1
Разберите работу следующей программы. Запустите ее на выполнение.

2008 Задания для самостоятельной работы Задание 1 Разберите работу следующей программы. Запустите ее на выполнение.

Слайд 58

2008

#include "mpi.h"
#include
int main(int argc,char *argv[])
{
int myid, numprocs, **buf, source, i;

2008 #include "mpi.h" #include int main(int argc,char *argv[]) { int myid, numprocs,
int message[3] = {0, 1, 2};
int myrank, data = 2002, count, TAG = 0;
MPI_Status status;
MPI_Init(&argc, &argv);
MPI_Comm_rank(MPI_COMM_WORLD, &myrank);
if (myrank == 0)
{
MPI_Send(&data, 1, MPI_INT, 2, TAG, MPI_COMM_WORLD);
}
else if (myrank == 1) {
MPI_Send(&message, 3, MPI_INT, 2, TAG, MPI_COMM_WORLD);
}

Слайд 59

2008

else
{
MPI_Probe(MPI_ANY_SOURCE, 0, MPI_COMM_WORLD, &status);
source = status.MPI_SOURCE;
MPI_Get_count(&status, MPI_INT, &count);
for (i = 0; i

2008 else { MPI_Probe(MPI_ANY_SOURCE, 0, MPI_COMM_WORLD, &status); source = status.MPI_SOURCE; MPI_Get_count(&status, MPI_INT,
< count; i++){
buf[i] = (int *)malloc(count*sizeof(int));
}
MPI_Recv(&buf[0], count, MPI_INT, source, TAG, MPI_COMM_WORLD, &status);
for (i = 0; i < count; i++){
printf("received: %d\n", buf[i]);
}
}
MPI_Finalize();
return 0;
}

Слайд 60

2008

Задания для самостоятельной работы

Задание 2
Два вектора a и b размерности N представлены

2008 Задания для самостоятельной работы Задание 2 Два вектора a и b
двумя одномерными массивами, содержащими каждый по N элементов. Напишите параллельную MPI-программу вычисления скалярного произведения этих векторов используя неблокирующий двухточечный обмен сообщениями. Программа должна быть организована по схеме master-slave, причем master-процесс должен пересылать подчиненным процессам одинаковые (или почти одинаковые) по количеству элементов фрагменты векторов.
Если у вас имеется доступ к параллельному кластеру и есть возможность запускать на нем параллельные MPI-программы, проведите исследование зависимости ускорения параллельной программы от размера сообщения.

Слайд 61

2008

Задания для самостоятельной работы

Задание 3
Имеется последовательная программа на языке Fortran 90 решения

2008 Задания для самостоятельной работы Задание 3 Имеется последовательная программа на языке
двумерного уравнения Лапласа методом Якоби.
Ниже приводятся исходный текст программы и результат её исследования с помощью анализатора Intel ® Vtune.

Слайд 62

Задания для самостоятельной работы

2008

Двумерное уравнение Лапласа. Последовательная программа на языке Fortran 90

Задания для самостоятельной работы 2008 Двумерное уравнение Лапласа. Последовательная программа на языке Fortran 90

Слайд 63

Задания для самостоятельной работы

2008

program laplace
implicit none
integer :: nx, ny, i,

Задания для самостоятельной работы 2008 program laplace implicit none integer :: nx,
j, iter
real(8) :: v0, v1, change
integer, parameter :: ndim = 100
real, dimension(ndim, ndim) :: v
open(unit = 12, file = "laplace.in")
! Number of cells along x
read(12, *) nx
!Number of cells along y
read(12, *) ny
! Potential on rectangular''s boundary OX
read(12, *) v0
! Potential on rectangular''s boundary OY
read(12, *) v1
! Minimal relative error
read(12, *) change
close(12)

Слайд 64

Задания для самостоятельной работы

2008

change = change / 100
!
! Boundary potential
!
boundary_potential_x

Задания для самостоятельной работы 2008 change = change / 100 ! !
: do i = 1, nx
v(i, 1) = v0 ; v(i, ny) = v0
end do boundary_potential_x
boundary_potential_y : do j = 1, ny
v(1, j) = v1 ; v(nx, j) = v1
end do boundary_potential_y
!
! Initial approximation for potentials of internal cells
!
initial_values : do i = 2, nx - 1
do j = 2, ny - 1
v(i, j) = 0.9d0 * v0
end do
end do initial_values
call relax(v, nx, ny, change, iter)
end

Слайд 65

Задания для самостоятельной работы

2008

subroutine relax(v, nx, ny, change, iter)
implicit none

Задания для самостоятельной работы 2008 subroutine relax(v, nx, ny, change, iter) implicit
integer :: nx, ny, i, j, iter, idum
real(8) :: v0, change, diff, dmax
integer, parameter :: ndim = 100
real, dimension(ndim, ndim) :: v, vaverage
iter = 0
iterations : do idum = 1, 100000
dmax = 0
iter = iter + 1
do i = 2, nx - 1
average_potential : do j = 2, ny - 1
! Average potential of neighbour cells
vaverage(i, j) = v(i + 1, j) + v(i - 1, j)
vaverage(i, j) = vaverage(i, j) + v(i, j + 1) + v(i, j - 1)
vaverage(i, j) = 0.25d0 * vaverage(i, j)
! Relative change of potential
diff = abs((v(i, j) - vaverage(i, j)) / vaverage(i, j))
if (diff > dmax) dmax = diff
end do average_potential
end do

Слайд 66

Задания для самостоятельной работы

2008

! Update potential of each cell
x_loop : do

Задания для самостоятельной работы 2008 ! Update potential of each cell x_loop
i = 2, nx - 1
y_loop : do j = 2, ny - 1
v(i, j) = vaverage(i, j)
end do y_loop
end do x_loop
if (dmax < change) then
call output(v, nx, ny, iter)
return
end if
end do iterations
return
end

Слайд 67

Задания для самостоятельной работы

2008

subroutine output(v, nx, ny, iter)
implicit none
integer

Задания для самостоятельной работы 2008 subroutine output(v, nx, ny, iter) implicit none
:: nx, ny, i, j, iter
integer, parameter :: ndim = 100
real, dimension(ndim, ndim) :: v, vaverage
write(6, *) 'Number of iterations = ', iter
open(unit = 11, file = "laplace.dat", status = "NEW")
do j = ny, 1, -1
write(11, "(10(d8.3, 2x))") (v(i, j), i = 1, nx)
end do
close(11)
return
end

Слайд 68

2008

0x2dab 57 653 291 vaverage(i, j) = v(i + 1, j) +

2008 0x2dab 57 653 291 vaverage(i, j) = v(i + 1, j)
v(i - 1, j)
0x2e09 58 894 276 vaverage(i, j) = vaverage(i, j) + v(i, j + 1) + v(i, j - 1)
0x2e83 59 700 454 vaverage(i, j) = 0.25d0 * vaverage(i, j)
60 0 0 !
61 0 0 ! Relative change of potential
62 0 0 !
0x2ec9 63 4781 9141 diff = abs((v(i, j) - vaverage(i, j)) / vaverage(i, j))
0x2f24 64 789 360 if (diff > dmax) dmax = diff
0x2f38 65 294 105 end do average_potential
0x2f4a 66 19 8 end do
67 0 0 !
68 0 0 ! Update potential of each cell
69 0 0 !
0x2f5c 70 0 0 x_loop : do i = 2, nx - 1
0x2f77 71 4 10 y_loop : do j = 2, ny - 1
0x2f92 72 885 1311 v(i, j) = vaverage(i, j)
0x2fca 73 369 527 end do y_loop
0x2fd8 74 17 37 end do x_loop
0x2fe6 75 0 0 if (dmax < change) then
0x2ff5 76 0 0 call output(v, nx, ny, iter)

Слайд 69

Задания для самостоятельной работы

2008

Написать параллельный вариант этой программы.
Применить декомпозицию по данным.
Обмен значениями

Задания для самостоятельной работы 2008 Написать параллельный вариант этой программы. Применить декомпозицию
функции в граничных узлах подобластей.
Имя файла: Основы-параллельного-программирования-с-использованием-MPI-Лекция-4.pptx
Количество просмотров: 140
Количество скачиваний: 0