Основы параллельного программирования с использованием MPI Лекция 3

Содержание

Слайд 2

Лекция 3

2008

Аннотация
В третьей лекции обсуждаются средства организации двухточечных обменов. Рассматриваются различные режимы

Лекция 3 2008 Аннотация В третьей лекции обсуждаются средства организации двухточечных обменов.
блокирующих двухсторонних обменов, их реализация в MPI, приводятся примеры использования. Основное внимание уделяется стандартным обменам, обменам с буферизацией и «по готовности». Рассматриваются функции «приёмопередачи», а также возможные проблемы при организации двухточечных обменов.

Слайд 3

План лекции

2008

Настройка рабочего места для выполнения
практических заданий.
Блокирующие двухточечные

План лекции 2008 Настройка рабочего места для выполнения практических заданий. Блокирующие двухточечные
обмены.
Двухточечные обмены с буферизацией, другие типы
двухточечных обменов.
Совмещённые операции приёма и передачи.

Слайд 4

Настройка рабочего места

2008

Настройка рабочего места 2008

Слайд 5

Настройка рабочего места

2008

Рассмотрим настройку рабочего места в среде Microsoft Windows
MPICH2 для MS

Настройка рабочего места 2008 Рассмотрим настройку рабочего места в среде Microsoft Windows
Windows можно скачать по адресу:
http://www.mcs.anl.gov/research/projects/mpich2/
Выбираем операционную систему, затем переходим по ссылке [http]
и скачиваем msi-файл (размер около 9 Мбайт), например:
mpich2-1.0.8-win-ia32.msi
Затем следует щелкнуть по имени файла, тогда запустится программа-установщик. Для установки потребуются права Администратора системы (запуск MPI-программ выполняется соответствующей службой).

Слайд 6

Настройка рабочего места

2008

После щелчка будет произведена установка диспетчера процессов spmd (spmd process

Настройка рабочего места 2008 После щелчка будет произведена установка диспетчера процессов spmd
manager). Необходимо указать «секретное» слово. По умолчанию это:
behappy
В меню «Пуск»->«Все программы» появится раздел MPICH2 с пунктами:
jumpshot
wmpiconfig.exe
wmpiexec.exe
wmpiregister.exe

Слайд 7

Настройка рабочего места

2008

В папке MPICH2 располагаются папки:
bin
examples
include
jumpshot
lib
Динамически подключаемые (dll) библиотеки копируются в

Настройка рабочего места 2008 В папке MPICH2 располагаются папки: bin examples include
папку windows/system32.
Диспетчер процессов smpd автоматически запускается сразу же после установки MPICH2, а также после перезагрузки системы.

Слайд 8

Настройка рабочего места

2008

Библиотеки в папке lib скомпилированы с помощью компиляторов MS Visual

Настройка рабочего места 2008 Библиотеки в папке lib скомпилированы с помощью компиляторов
C++.NET и Intel ® Fortran 8.1.
Запустим MS Visual Studio 2008 и создадим новый проект Win32 Console Application (Консольное приложение Win32), в конфигурации Release.
В окно проекта копируется исходный текст программы, если он уже существует или программа набирается заново.
Затем необходимо настроить пути и ссылки на библиотеку MPICH2.

Слайд 9

Настройка рабочего места

2008

В строке
Project -> properties -> C++->General->Additional Include Directories
вводится путь

Настройка рабочего места 2008 В строке Project -> properties -> C++->General->Additional Include
к каталогу include.

Слайд 10

Настройка рабочего места

2008

Настройка рабочего места 2008

Слайд 11

Настройка рабочего места

2008

В строке
Project -> properties -> C++->Linker->General->Additional Library Directories
вводится путь

Настройка рабочего места 2008 В строке Project -> properties -> C++->Linker->General->Additional Library
к каталогу lib.

Слайд 12

Настройка рабочего места

2008

Настройка рабочего места 2008

Слайд 13

Настройка рабочего места

2008

В строке
Project -> properties -> C++->Linker->Input->Additional Dependencies
вводится имя библиотеки

Настройка рабочего места 2008 В строке Project -> properties -> C++->Linker->Input->Additional Dependencies вводится имя библиотеки mpi.lib.
mpi.lib.

Слайд 14

Настройка рабочего места

2008

Настройка рабочего места 2008

Слайд 15

Настройка рабочего места

2008

Теперь проект настроен на использование MPICH2.
Выполним компиляцию программы (пункт Build

Настройка рабочего места 2008 Теперь проект настроен на использование MPICH2. Выполним компиляцию
-> Rebuild Solution).
Если отсутствуют синтаксические ошибки, программа готова к выполнению.
Работая в среде MS Windows, запустим wmpiregister.exe и введем свое регистрационное имя, а также «секретное слово» (behappy).
В результате будет запущена служба spmd.
Для выполнения MPI-программы необходимо воспользоваться программой wmpiexec.exe.

Слайд 16

Запуск MPI-программы в среде MS Windows

2008

Запуск MPI-программы в среде MS Windows 2008

Слайд 17

Двухточечные обмены

2008

Двухточечные обмены 2008

Слайд 18

Двухточечные обмены

2008

Двухточечный (point-to-point, p2p) обмен
В двухточечном обмене участвуют только два процесса, процесс-отправитель

Двухточечные обмены 2008 Двухточечный (point-to-point, p2p) обмен В двухточечном обмене участвуют только
и процесс-получатель  (источник сообщения и адресат).
Двухточечные обмены используются для организации локальных и неструктурированных коммуникаций.

Слайд 19

Двухточечные обмены

2008

Имеется несколько разновидностей двухточечного обмена
блокирующие прием/передача, которые приостанавливают
выполнение

Двухточечные обмены 2008 Имеется несколько разновидностей двухточечного обмена блокирующие прием/передача, которые приостанавливают
процесса на время приема или передачи
сообщения;
неблокирующие прием/передача, при которых выполнение
процесса продолжается в фоновом режиме, а программа в
нужный момент может запросить подтверждение завершения
приема сообщения;
синхронный обмен, который сопровождается уведомлением об
окончании приема сообщения;
асинхронный обмен, который таким уведомлением не
сопровождается.

Слайд 20

Двухточечные обмены

2008

Двухточечный обмен возможен только между процессами, принадлежащими одной области взаимодействия (одному

Двухточечные обмены 2008 Двухточечный обмен возможен только между процессами, принадлежащими одной области взаимодействия (одному коммуникатору).
коммуникатору).

Слайд 21

Двухточечные обмены

2008

Правильно организованный двухточечный обмен сообщениями должен исключать возможность блокировки или некорректной

Двухточечные обмены 2008 Правильно организованный двухточечный обмен сообщениями должен исключать возможность блокировки
работы параллельной MPI-программы.
Примеры ошибок в организации двухточечных обменов:
выполняется передача сообщения, но не выполняется его прием;
процесс-источник и процесс-получатель одновременно пытаются
выполнить блокирующие передачу или прием сообщения.

Слайд 22

Двухточечные обмены

2008

Правильно

Двухточечные обмены 2008 Правильно

Слайд 23

Двухточечные обмены

2008

Неправильно

Двухточечные обмены 2008 Неправильно

Слайд 24

Двухточечные обмены

2008

Неправильно

Двухточечные обмены 2008 Неправильно

Слайд 25

Двухточечные обмены

2008

В MPI приняты следующие соглашения об именах подпрограмм двухточечного обмена:
MPI_[I][R, S,

Двухточечные обмены 2008 В MPI приняты следующие соглашения об именах подпрограмм двухточечного
B]Send
здесь префикс [I] (Immediate) обозначает неблокирующий режим. Один из префиксов [R, S, B] обозначает режим обмена:
по готовности, синхронный и буферизованный.
Отсутствие префикса обозначает подпрограмму стандартного обмена. Имеется 8 разновидностей операции передачи сообщений.
Для подпрограмм приема:
MPI_[I]Recv
то есть всего 2 разновидности приема.
Подпрограмма MPI_Irsend, например, выполняет передачу «по готовности» в неблокирующем режиме, MPI_Bsend буферизованную передачу с блокировкой, а MPI_Recv выполняет блокирующий прием сообщений. Подпрограмма приема любого типа может принять сообщения от любой подпрограммы передачи.

Слайд 26

Стандартный блокирующий двухточечный обмен

Стандартный блокирующий двухточечный обмен

Слайд 27

Двухточечные обмены

2008

Cтандартная блокирующая передача
int MPI_Send(void *buf, int count, MPI_Datatype datatype,int dest, int

Двухточечные обмены 2008 Cтандартная блокирующая передача int MPI_Send(void *buf, int count, MPI_Datatype
tag, MPI_Comm comm)
MPI_Send(buf, count, datatype, dest, tag, comm, ierr)
buf - адрес первого элемента в буфере передачи;
count -  количество элементов в буфере передачи (допускается
count = 0);
datatype - тип MPI каждого пересылаемого элемента;
dest  - ранг процесса-получателя сообщения ( целое число от 0
до n – 1, где n  число процессов в области взаимодействия);
tag  - тег сообщения;
comm - коммуникатор;
ierr - код завершения.

Слайд 28

Двухточечные обмены

2008

При стандартной блокирующей передаче после завершения вызова (после возврата из функции/процедуры

Двухточечные обмены 2008 При стандартной блокирующей передаче после завершения вызова (после возврата
передачи) можно использовать любые переменные, использовавшиеся в списке параметров. Такое использование не повлияет на корректность обмена.
Дальнейшая «судьба» сообщения зависит от реализации MPI. Сообщение может быть сразу передано процессу-получателю или может быть скопировано в буфер передачи.
Завершение вызова не гарантирует доставки сообщения по назначению. Такая гарантия предоставляется при использовании других разновидностей двухточечного обмена (см. далее материал этой лекции).

Слайд 29

Двухточечные обмены

2008

Cтандартный блокирующий прием
int MPI_Recv(void *buf, int count, MPI_Datatype datatype, int source,

Двухточечные обмены 2008 Cтандартный блокирующий прием int MPI_Recv(void *buf, int count, MPI_Datatype
int tag, MPI_Comm comm, MPI_Status *status)
MPI_Recv(buf, count, datatype, dest, tag, comm, status, ierr)
buf - адрес первого элемента в буфере приёма;
count -  количество элементов в буфере приёма;
datatype - тип MPI каждого пересылаемого элемента;
source  - ранг процесса-отправителя сообщения ( целое число от 0
до n – 1, где n  число процессов в области взаимодействия);
tag  - тег сообщения;
comm - коммуникатор;
status - статус обмена;
ierr - код завершения.

Слайд 30

Двухточечные обмены

2008

Значение параметра count может оказаться больше, чем количество элементов в принятом

Двухточечные обмены 2008 Значение параметра count может оказаться больше, чем количество элементов
сообщении. В этом случае после выполнения приёма в буфере изменится значение только тех элементов, которые соответствуют элементам фактически принятого сообщения.
Для функции MPI_Recv гарантируется, что после завершения вызова сообщение принято и размещено в буфере приема.

Слайд 31

Двухточечные обмены

2008

Специфические коды завершения:
MPI_ERR_COMM - неправильно указан коммуникатор. Часто
возникает при

Двухточечные обмены 2008 Специфические коды завершения: MPI_ERR_COMM - неправильно указан коммуникатор. Часто
использовании «пустого» коммуникатора;
MPI_ERR_COUNT - неправильное значение аргумента count
(количество пересылаемых значений);
MPI_ERR_TYPE - неправильное значение аргумента,
задающего тип данных;
MPI_ERR_TAG - неправильно указан тег сообщения;
MPI_ERR_RANK - неправильно указан ранг источника или
адресата сообщения;
MPI_ERR_ARG - неправильный аргумент, ошибочное
задание которого не попадает ни в один класс ошибок;
MPI_ERR_REQUEST - неправильный запрос на выполнение
операции.

Слайд 32

Двухточечные обмены

2008

«Джокеры»
В качестве ранга источника сообщения и в качестве тега сообщения можно

Двухточечные обмены 2008 «Джокеры» В качестве ранга источника сообщения и в качестве
использовать «джокеры» :
MPI_ANY_SOURCE - любой источник;
MPI_ANY_TAG - любой тег.
При использовании «джокеров» есть опасность приема сообщения, не предназначенного данному процессу

Слайд 33

Двухточечные обмены

2008

Подпрограмма MPI_Recv может принимать сообщения, отправленные в любом режиме.
Прием может

Двухточечные обмены 2008 Подпрограмма MPI_Recv может принимать сообщения, отправленные в любом режиме.
выполняться от произвольного процесса, а в операции передачи должен быть указан вполне определенный адрес. Приемник может использовать «джокеры» для источника и для тега. Процесс может отправить сообщение и самому себе, но следует учитывать, что использование в этом случае блокирующих операций может привести к «тупику».

Слайд 34

Двухточечные обмены

2008

Пример использования операции блокирующего двухточечного обмена

Двухточечные обмены 2008 Пример использования операции блокирующего двухточечного обмена

Слайд 35

2008

#include
#include
int main (int argc, char *argv[]) {
int ProcNum, ProcRank, tmp;
MPI_Status

2008 #include #include int main (int argc, char *argv[]) { int ProcNum,
status;
MPI_Init ( &argc, &argv );
MPI_Comm_size (MPI_COMM_WORLD, &ProcNum);
MPI_Comm_rank (MPI_COMM_WORLD, &ProcRank);
if(ProcRank == 0){
printf("Hello world from process %i \n", ProcRank);
for(int i = 1; i < ProcNum; i++){
MPI_Recv(&tmp,1,MPI_INT,MPI_ANY_SOURCE,0,MPI_COMM_WORLD, &status);
printf("Hello world from process %i \n", tmp);
}
}else{
MPI_Send(&ProcRank,1,MPI_INT,0,0,MPI_COMM_WORLD);
}
MPI_Finalize();
return 0;
}

Слайд 36

Двухточечные обмены

2008

Пример программы, попадающей «в тупик»

Двухточечные обмены 2008 Пример программы, попадающей «в тупик»

Слайд 37

2008

program main_mpi
include 'mpif.h'
integer rank, tag, cnt, ierr, status(MPI_STATUS_SIZE)
real sndbuf, rcvbuf
tag = 0
sndbuf

2008 program main_mpi include 'mpif.h' integer rank, tag, cnt, ierr, status(MPI_STATUS_SIZE) real
= 3.14159
cnt = 1
call MPI_Init(ierr)
call MPI_Comm_rank(MPI_COMM_WORLD, rank, ierr)
if (rank.eq.0) then
call MPI_Recv(rcvbuf, cnt, MPI_REAL, 1, tag, MPI_COMM_WORLD, status, ierr)
call MPI_Send(sndbuf, cnt, MPI_REAL, 1, tag, MPI_COMM_WORLD, ierr)
else
call MPI_Recv(rcvbuf, cnt, MPI_REAL, 0, tag, MPI_COMM_WORLD, status, ierr)
call MPI_Send(sndbuf, cnt, MPI_REAL, 0, tag, MPI_COMM_WORLD, ierr)
end if
call MPI_Finalize(ierr)
stop
end

Слайд 38

Двухточечные обмены

2008

Размер полученного сообщения (count) можно определить с помощью вызова подпрограммы
int

Двухточечные обмены 2008 Размер полученного сообщения (count) можно определить с помощью вызова
MPI_Get_count(MPI_Status *status, MPI_Datatype datatype, int *count)
MPI_Get_count(status, datatype, count, ierr)
count -  количество элементов в буфере передачи;
datatype - тип MPI каждого пересылаемого элемента;
status - статус обмена;
ierr - код завершения.
Аргумент datatype должен соответствовать типу данных, указанному в операции обмена

Слайд 39

Двухточечный обмен с буферизацией

Двухточечный обмен с буферизацией

Слайд 40

Двухточечные обмены

2008

Передача сообщения в буферизованном режиме может быть начата независимо от того,

Двухточечные обмены 2008 Передача сообщения в буферизованном режиме может быть начата независимо
зарегистрирован ли соответствующий прием. Источник копирует сообщение в буфер, а затем передает его в неблокирующем режиме, так же как в стандартном режиме. Эта операция локальна, поскольку ее выполнение не зависит от наличия соответствующего приема. Если объем буфера недостаточен, возникает ошибка. Выделение буфера и его размер контролируются программистом.

Слайд 41

Двухточечные обмены

2008

Размер буфера должен превосходить размер сообщения на величину MPI_BSEND_OVERHEAD. Это дополнительное

Двухточечные обмены 2008 Размер буфера должен превосходить размер сообщения на величину MPI_BSEND_OVERHEAD.
пространство используется подпрограммой буферизованной передачи для своих целей.
Если перед выполнением операции буферизованного обмена не выделен буфер, MPI ведет себя так, как если бы с процессом был связан буфер нулевого размера. Работа с таким буфером обычно завершается сбоем программы.
Буферизованный обмен рекомендуется использовать в тех ситуациях, когда программисту требуется больший контроль над распределением памяти. Этот режим удобен и для отладки, поскольку причину переполнения буфера определить легче, чем причину тупика.

Слайд 42

Двухточечные обмены

2008

При выполнении буферизованного обмена программист должен заранее создать буфер достаточного размера:
int

Двухточечные обмены 2008 При выполнении буферизованного обмена программист должен заранее создать буфер
MPI_Buffer_attach(void *buf, size)
MPI_Buffer_attach(buf, size, ierr)
В результате вызова создается буфер buf размером size байтов. В программах на языке Fortran роль буфера может играть массив. За один раз к процессу может быть подключен только один буфер.

Слайд 43

Двухточечные обмены

2008

Буферизованная передача завершается сразу, поскольку сообщение немедленно копируется в буфер для

Двухточечные обмены 2008 Буферизованная передача завершается сразу, поскольку сообщение немедленно копируется в
последующей передачи. В отличие от стандартного обмена, в этом случае работа источника и адресата не синхронизована:
int MPI_Bsend(void *buf, int count, MPI_Datatype datatype, int dest, int tag, MPI_Comm comm)
MPI_Bsend(buf, count, datatype, dest, tag, comm, ierr)

Слайд 44

Двухточечные обмены

2008

После завершения работы с буфером его необходимо отключить:
int MPI_Buffer_detach(void *buf, int

Двухточечные обмены 2008 После завершения работы с буфером его необходимо отключить: int
*size)
MPI_Buffer_detach(buf, size, ierr)
Возвращается адрес (buf) и размер отключаемого буфера (size). Эта операция блокирует работу процесса до тех пор, пока все сообщения, находящиеся в буфере, не будут обработаны. Вызов данной подпрограммы можно использовать для форсированной передачи сообщений. После завершения вызова можно вновь использовать память, которую занимал буфер. В языке C данный вызов не освобождает автоматически память, отведенную для буфера.

Слайд 45

Двухточечные обмены

2008

Пример программы, использующей обмен с буферизацией

Двухточечные обмены 2008 Пример программы, использующей обмен с буферизацией

Слайд 46

2008

#include "mpi.h"
#include
int main(int argc,char *argv[])
{
int *buffer;
int myrank;
MPI_Status status;

2008 #include "mpi.h" #include int main(int argc,char *argv[]) { int *buffer; int
int buffsize = 1;
int TAG = 0;
MPI_Init(&argc, &argv);
MPI_Comm_rank(MPI_COMM_WORLD, &myrank);
if (myrank == 0)
{
buffer = (int *) malloc(buffsize + MPI_BSEND_OVERHEAD);
MPI_Buffer_attach(buffer, buffsize + MPI_BSEND_OVERHEAD);
buffer = (int *) 10;
MPI_Bsend(&buffer, buffsize, MPI_INT, 1, TAG, MPI_COMM_WORLD);
MPI_Buffer_detach(&buffer, &buffsize);
}
else
{
MPI_Recv(&buffer, buffsize, MPI_INT, 0, TAG, MPI_COMM_WORLD, &status);
printf("received: %i\n", buffer);
}
MPI_Finalize();
return 0;}

Слайд 47

Другие разновидности двухточечного обмена

Другие разновидности двухточечного обмена

Слайд 48

Двухточечные обмены

2008

Cинхронный обмен
Завершение передачи происходит тольк после того, как прием сообщения инициализирован

Двухточечные обмены 2008 Cинхронный обмен Завершение передачи происходит тольк после того, как
другим процессом. Адресат посылает источнику «квитанцию» - уведомление о завершении приема. После получения этого уведомления обмен считается завершенным и источник "знает", что его сообщение получено:
int MPI_Ssend(void *buf, int count, MPI_Datatype datatype, int dest, int tag, MPI_Comm comm)
MPI_SSEND(BUF, COUNT, DATATYPE, DEST, TAG, COMM, IERR)

Слайд 49

Двухточечные обмены

2008

Обмен «по готовности»
Передача «по готовности» выполняется с помощью подпрограммы

Двухточечные обмены 2008 Обмен «по готовности» Передача «по готовности» выполняется с помощью
MPI_Rsend:
int MPI_Rsend(void *buf, int count, MPI_Datatype datatype,
int dest, int tag, MPI_Comm comm)
MPI_Rsend(buf, count, datatype, dest, tag, comm, ierr)
Передача «по готовности» должна начинаться, если уже зарегистрирован соответствующий прием. При несоблюдении этого условия результат выполнения операции не определен.
Завершается она сразу же. Если прием не зарегистрирован, результат выполнения операции не определен. Завершение передачи не зависит от того, вызвана ли другим процессом подпрограмма приема данного сообщения или нет, оно означает только, что буфер передачи можно использовать вновь. Сообщение просто выбрасывается в коммуникационную сеть в надежде, что адресат его получит. Эта надежда может и не сбыться.

Слайд 50

Двухточечные обмены

2008

Завершается операция обмена сразу же. Если прием не зарегистрирован, результат выполнения

Двухточечные обмены 2008 Завершается операция обмена сразу же. Если прием не зарегистрирован,
операции не определен. Завершение передачи не зависит от того, вызвана ли другим процессом подпрограмма приема данного сообщения или нет, оно означает только, что буфер передачи можно использовать вновь. Сообщение просто выбрасывается в коммуникационную сеть в надежде, что адресат его получит. Эта надежда может и не сбыться.

Слайд 51

Двухточечные обмены

2008

Обмен «по готовности» может увеличить производительность программы, поскольку здесь не используются

Двухточечные обмены 2008 Обмен «по готовности» может увеличить производительность программы, поскольку здесь
этапы установки межпроцессных связей, а также буферизация. Все это ⎯ операции, требующие времени. С другой стороны, обмен «по готовности» потенциально опасен, кроме того, он усложняет отладку, поэтому его рекомендуется использовать только в том случае, когда правильная работа программы гарантируется ее логической структурой, а выигрыша в быстродействии надо добиться любой ценой.

Слайд 52

Двухточечные обмены

2008

Совместные прием и передача
Операции приемопередачи объединяют в едином вызове передачу сообщения

Двухточечные обмены 2008 Совместные прием и передача Операции приемопередачи объединяют в едином
одному процессу и прием сообщения от другого процесса. Данный вид обменов может оказаться полезным при выполнении сложных схем обмена сообщениями, например, по цепи процессов.
Подпрограммы приемопередачи могут взаимодействовать с обычными подпрограммами обмена и подпрограммами зондирования.

Слайд 53

Двухточечные обмены

2008

Подпрограмма MPI_Sendrecv выполняет прием и передачу данных с блокировкой:
int MPI_Sendrecv(void *sendbuf,

Двухточечные обмены 2008 Подпрограмма MPI_Sendrecv выполняет прием и передачу данных с блокировкой:
int sendcount, MPI_Datatype sendtype, int dest, int sendtag, void *recvbuf, int recvcount, MPI_Datatype recvtype, int source, int recvtag, MPI_Comm comm, MPI_Status *status)
MPI_Sendrecv(sendbuf, sendcount, sendtype, dest, sendtag, recvbuf, recvcount, recvtype, source, recvtag, comm, status, ierr)
Имеются разновидности операции приемопередачи.

Слайд 54

Двухточечные обмены

2008

Подпрограмма MPI_Sendrecv_replace выполняет прием и передачу данных, используя общий буфер для

Двухточечные обмены 2008 Подпрограмма MPI_Sendrecv_replace выполняет прием и передачу данных, используя общий
передачи и приёма:
int MPI_Sendrecv_replace(void *buf, int count,
MPI_Datatype datatype, int dest, int sendtag, int source,
int recvtag, MPI_Comm comm, MPI_Status *status)
MPI_Sendrecv_replace(BUF, COUNT, DATATYPE, DEST, SENDTAG,
SOURCE, RECVTAG, COMM, STATUS, IERR)

Слайд 55

2008

В этой лекции мы рассмотрели:
настройку рабочей среды для разработки и запуска

2008 В этой лекции мы рассмотрели: настройку рабочей среды для разработки и
MPI-программ
в среде Microsoft Windows;
организацию двухточечных обменов в MPI;
проблемы, которые могут возникать при использовании
двухточечных обменов.

Заключение

Слайд 56

2008

Задания для самостоятельной работы

Выполнить настройку среды на своем рабочем месте для разработки

2008 Задания для самостоятельной работы Выполнить настройку среды на своем рабочем месте
и запуска MPI-программ.
Если в процессе установки будут возникать вопросы, можно обращаться по электронной почте:
[email protected]

Слайд 57

2008

Задания для самостоятельной работы

В исходном тексте программы на языке C пропущены списки

2008 Задания для самостоятельной работы В исходном тексте программы на языке C
параметров процедур двухточечного обмена MPI. Добавить эти параметры, откомпилировать и запустить программу.

Слайд 58

2008

#include "mpi.h"
#include
int main(int argc,char *argv[])
{
int myid, numprocs;
char message[20];
int

2008 #include "mpi.h" #include int main(int argc,char *argv[]) { int myid, numprocs;
myrank;
MPI_Status status;
int TAG = 0;
MPI_Init(&argc, &argv);
MPI_Comm_rank(MPI_COMM_WORLD, &myrank);
if (myrank == 0)
{
strcpy(message, "Hi, Second Processor!");
MPI_Send(...);
}
else
{
MPI_Recv(...);
printf("received: %s\n", message);
}
MPI_Finalize();
return 0;
}

Слайд 59

2008

Задания для самостоятельной работы

В исходном тексте программы на языке C предусмотрена некая

2008 Задания для самостоятельной работы В исходном тексте программы на языке C
схема обмена сообщениями между процессами параллельной программы. Определите схему обмена. В тексте пропущены списки параметров процедур двухточечного обмена MPI. Добавить эти параметры, откомпилировать и запустить программу.

Слайд 60

2008

#include "mpi.h"
#include
int main(int argc,char *argv[])
{
int myrank, size, message;
int TAG = 0;
MPI_Status

2008 #include "mpi.h" #include int main(int argc,char *argv[]) { int myrank, size,
status;
MPI_Init(&argc, &argv);
MPI_Comm_rank(MPI_COMM_WORLD, &myrank);
MPI_Comm_size(MPI_COMM_WORLD, &size);
message = myrank;
if((myrank % 2) == 0)
{
if((myrank + 1) != size)
MPI_Send(...);
}
else
{
if(myrank != 0)
MPI_Recv(...);
printf("received :%i\n", message);
}
MPI_Finalize();
return 0;
}

Слайд 61

2008

Задания для самостоятельной работы

Два вектора a и b размерности N представлены двумя

2008 Задания для самостоятельной работы Два вектора a и b размерности N
одномерными массивами, содержащими каждый по N элементов. Напишите параллельную MPI-программу вычисления скалярного произведения этих векторов используя блокирующий двухточечный обмен сообщениями. Программа должна быть организована по схеме master-slave, причем master-процесс должен пересылать подчиненным процессам одинаковые (или почти одинаковые) по количеству элементов фрагменты векторов.
Если у вас имеется доступ к параллельному кластеру и есть возможность запускать на нем параллельные MPI-программы, проведите исследование зависимости ускорения параллельной программы от размера сообщения.
Сделайте то же самое для других вариантов блокирующих обменов.
Имя файла: Основы-параллельного-программирования-с-использованием-MPI-Лекция-3.pptx
Количество просмотров: 131
Количество скачиваний: 0