«Есть ли жизнь после MPI?»

Содержание

Слайд 2

Абрамов С.М.†, Климов А.В. ‡, Лацис А.О. ‡, Московский А.А. † †ИПС имени А.К.Айламазяна

Абрамов С.М.†, Климов А.В. ‡, Лацис А.О. ‡, Московский А.А. † †ИПС
РАН ‡ИПМ имени М.В.Келдыша РАН Доклад 2009.10.31, Нижний Новгород

Есть ли жизнь после MPI?

*

СКИФ-ГРИД © 2009 Все права защищены

Слайд

Слайд 3

Переславль-Залесский. Институт программных систем имени А.К.Айламазяна Российской академии наук

*

СКИФ-ГРИД © 2009 Все права защищены

Слайд

Переславль-Залесский. Институт программных систем имени А.К.Айламазяна Российской академии наук * СКИФ-ГРИД ©

Слайд 4

Переславль-Залесский

Красивый старинный (860 лет) город России на берегу Плещеева озера
Центр Золотого кольца
Родина

Переславль-Залесский Красивый старинный (860 лет) город России на берегу Плещеева озера Центр
Св.Александра Невского, родина многих великих князей
Здесь Петр Великий создавал свою первую «потешную флотилию» — место рождения Российского флота
Древний центр Российской Православной Церкви

Москва

Переславль-Залесский

120 км

*

СКИФ-ГРИД © 2009 Все права защищены

Слайд

Слайд 5

ИПС имени А.К.Айламазяна РАН, Переславль-Залесский

*

СКИФ-ГРИД © 2009 Все права защищены

Слайд

ИПС имени А.К.Айламазяна РАН, Переславль-Залесский * СКИФ-ГРИД © 2009 Все права защищены Слайд

Слайд 6

Основание Института

Основан в 1984 году по постановлению ВПК для развития информатики и

Основание Института Основан в 1984 году по постановлению ВПК для развития информатики
вычислительной техники в стране
Первый директор (1984–2003) — проф. А.К.Айламазян
В декабре 2008 Институту присвоено имя А.К.Айламазяна

*

СКИФ-ГРИД © 2009 Все права защищены

Слайд

Слайд 7

2009: Организационная структура института

Исследовательский центр искусственного интеллекта
Исследовательский центр медицинской информатики
Исследовательский центр мультипроцессорных

2009: Организационная структура института Исследовательский центр искусственного интеллекта Исследовательский центр медицинской информатики
систем
Исследовательский центр системного анализа
Исследовательский центр процессов управления
Научно-образовательный центр — Международный детский компьютерный лагерь (МДКЦ) имени А.К.Айламазяна

*

СКИФ-ГРИД © 2009 Все права защищены

Слайд

Слайд 8

Университет города Переславля имени А.К.Айламазяна

*

СКИФ-ГРИД © 2009 Все права защищены

Слайд

Университет города Переславля имени А.К.Айламазяна * СКИФ-ГРИД © 2009 Все права защищены Слайд

Слайд 9

Программы «СКИФ» и «СКИФ-ГРИД»

Заказчики-координаторы
НАН Беларуси
Агентство «Роснаука»
Головные исполнители
Объединенный институт проблем информатики НАН Беларуси
Институт

Программы «СКИФ» и «СКИФ-ГРИД» Заказчики-координаторы НАН Беларуси Агентство «Роснаука» Головные исполнители Объединенный
программных систем РАН
Исполнители
«СКИФ» 2000-2004 — 10+10 организаций Беларуси и России
«СКИФ-ГРИД» 2007-2010 — 10+20 организаций Беларуси и России
2003-2008: 5 суперЭВМ семейства «СКИФ» в рейтинге Top500

*

СКИФ-ГРИД © 2009 Все права защищены

Слайд

Слайд 10

Семейство суперЭВМ «СКИФ»: Ряды 1, 2, 3 и 4

2032 Gflops СКИФ К-1000
472

Семейство суперЭВМ «СКИФ»: Ряды 1, 2, 3 и 4 2032 Gflops СКИФ
Gflops СКИФ К-500

57 Gflops Первенец-М
26 Gflops ВМ5100
11 Gflops Первенец

47.17 Tflops СКИФ МГУ
12.2 Tflops СКИФ Урал
9 Тflops СКИФ Cyberia

1 кв.2012 СКИФ П~5.0
3 кв. 2010 СКИФ П-1.0
3 кв. 2009 СКИФ П-0.5

Сделано: Ряды 1–3
Ближайшие планы: Ряд 4

Linpack

*

СКИФ-ГРИД © 2009 Все права защищены

Слайд

Слайд 11

2002 июнь МВС 1000M 0.734/1.024 TFlops

2003 ноябрь СКИФ К-500 0.423/0.717 TFlops

2004 ноябрь СКИФ К-1000 2.032/2.534 TFlops

2007 февраль
СКИФ Cyberia 9.013/12.002

2002 июнь МВС 1000M 0.734/1.024 TFlops 2003 ноябрь СКИФ К-500 0.423/0.717 TFlops
TFlops

2008 май СКИФ Урал 12.2/15.9 TFlops

2008 май СКИФ МГУ 47.1/60 TFlops

За все время только шесть созданных в России суперЭВМ вошли в Top500. Пять из шести—СКИФы!

*

СКИФ-ГРИД © 2009 Все права защищены

Слайд

Слайд 12

Что затрудняет эффективное использование MPI в суперЭВМ ближайшего будущего?

*

СКИФ-ГРИД © 2009 Все

Что затрудняет эффективное использование MPI в суперЭВМ ближайшего будущего? * СКИФ-ГРИД ©
права защищены

Слайд

Слайд 13

Проблемы MPI

Рост числа процессоров (и ядер) в суперЭВМ будет продолжаться
Сегодня 1 Pflops

Проблемы MPI Рост числа процессоров (и ядер) в суперЭВМ будет продолжаться Сегодня
≈ 20,000 CPU ≈ 80,000 ядер
Установки с 1,000,000 ядрами появятся очень скоро
Трудности эффективной реализации MPI для гигантского числа вычислительных узлов
да еще и многоядерных!
Трудности эффективного использования программистами MPI для случая гигантского числа вычислительных узлов
Есть разрыв между тем, что реализует аппаратура (SMP + односторонние обмены) и тем, что имеется в MPI (двусторонние обмены, рандеву на канале)
Проблемы серьезны, возможно «вымирание» MPI

*

СКИФ-ГРИД © 2009 Все права защищены

Слайд

Слайд 14

Т-система: автоматическое динамическое распараллеливание программ

*

СКИФ-ГРИД © 2009 Все права защищены

Слайд

Т-система: автоматическое динамическое распараллеливание программ * СКИФ-ГРИД © 2009 Все права защищены Слайд

Слайд 15

Т-система (неформально)

Функциональная модель + императивное описание тела функции
Арность и коарность функций
Готовые и

Т-система (неформально) Функциональная модель + императивное описание тела функции Арность и коарность
неготовые значения
Вызов Т-функции — порождение процесса
Можно копировать неготовые значения, в том числе и передавать их как результат
Любые иные операции с неготовым значением приводит к «засыпанию» процесса на данной Т-переменной
Побудка будет, когда Т-переменная примет готовое значение
Состояние вычисления: сеть из процессов (ребра —отношение «поставщик-потребитель»), процесс исполнения: автотрансформация данной сети

*

СКИФ-ГРИД © 2009 Все права защищены

Слайд

Слайд 16

*

СКИФ-ГРИД © 2009 Все права защищены

Слайд

a 6

b 5

c 3

d 9

u

v

w

F

… d = G(a, b) b = d
u

* СКИФ-ГРИД © 2009 Все права защищены Слайд a 6 b 5
= a
d = c
v = a
w = b …

Слайд 17

*

СКИФ-ГРИД © 2009 Все права защищены

Слайд

a 6

b 5

c 3

d

u

v

w

F

… d = G(a, b) b = d
u

* СКИФ-ГРИД © 2009 Все права защищены Слайд a 6 b 5
= a
d = c
v = a
w = b …

6

5

G

Слайд 18

*

СКИФ-ГРИД © 2009 Все права защищены

Слайд

a 6

b

c 3

d

u

v

w

F

… d = G(a, b) b = d
u

* СКИФ-ГРИД © 2009 Все права защищены Слайд a 6 b c
= a
d = c
v = a
w = b …

6

5

G

Слайд 19

*

СКИФ-ГРИД © 2009 Все права защищены

Слайд

a 6

b

c 3

d

u

v

w

F

6

… d = G(a, b) b = d
u

* СКИФ-ГРИД © 2009 Все права защищены Слайд a 6 b c
= a
d = c
v = a
w = b …

6

5

G

Слайд 20

*

СКИФ-ГРИД © 2009 Все права защищены

Слайд

a 6

b

c 3

d 3

u

v

w

F

6

… d = G(a, b) b = d
u

* СКИФ-ГРИД © 2009 Все права защищены Слайд a 6 b c
= a
d = c
v = a
w = b …

6

5

G

Слайд 21

*

СКИФ-ГРИД © 2009 Все права защищены

Слайд

a 6

b

c 3

d 3

u

v

w

F

6

… d = G(a, b) b = d
u

* СКИФ-ГРИД © 2009 Все права защищены Слайд a 6 b c
= a
d = c
v = a
w = b …

6

5

G

Слайд 22

*

СКИФ-ГРИД © 2009 Все права защищены

Слайд

a 6

b

c 3

d 3

u

v

w

F

6

… d = G(a, b) b = d
u

* СКИФ-ГРИД © 2009 Все права защищены Слайд a 6 b c
= a
d = c
v = a
w = b …

6

5

G

Слайд 23

*

СКИФ-ГРИД © 2009 Все права защищены

Слайд

6

6

5

G

* СКИФ-ГРИД © 2009 Все права защищены Слайд 6 6 5 G

Слайд 24

T-System History

Mid-80-ies Basic ideas of T-System
1990-ies First implementation of T-System
2001-2002, “SKIF” GRACE — Graph

T-System History Mid-80-ies Basic ideas of T-System 1990-ies First implementation of T-System
Reduction Applied to Cluster Environment
2003-current, “SKIF” Cooperation with Microsoft Open TS — Open T-system

Слайд 25

Open TS Overview

Open TS Overview

Слайд 26

Comparison: T-System and MPI

Sequential

Parallel

Comparison: T-System and MPI Sequential Parallel

Слайд 27

T-System in Comparison

T-System in Comparison

Слайд 28

Open TS: an Outline

High-performance computing
“Automatic dynamic parallelization”
Combining functional and imperative approaches,

Open TS: an Outline High-performance computing “Automatic dynamic parallelization” Combining functional and
high-level parallel programming
Т++ language: “Parallel dialect” of C++ — an approach popular in 90-ies

Слайд 29

Т-Approach

“Pure” functions (tfunctions) invocations produce grains of parallelism
T-Program is
Functional – on higher

Т-Approach “Pure” functions (tfunctions) invocations produce grains of parallelism T-Program is Functional
level
Imperative – on low level (optimization)
C-compatible execution model
Non-ready variables, Multiple assignment
“Seamless” C-extension (or Fortran-extension)

Слайд 30

Т++ Keywords

tfun — Т-function
tval — Т-variable
tptr — Т-pointer
tout — Output parameter (like &)
tdrop — Make ready
twait — Wait

Т++ Keywords tfun — Т-function tval — Т-variable tptr — Т-pointer tout
for readiness
tct — Т-context

Слайд 31

Short Introduction (Sample Programs)

Short Introduction (Sample Programs)

Слайд 32

#include
int fib (int n) {
return n < 2 ? n :

#include int fib (int n) { return n } int main (int
fib(n-1)+ fib(n-2);
}
int main (int argc, char **argv) {
if (argc != 2) { printf("Usage: fib \n"); return 1; }
int n = atoi(argv[1]);
printf("fib(%d) = %d\n", n, fib(n));
return 0;
}

Sample Program (C++)

Слайд 33

#include
tfun int fib (int n) {
return n < 2 ? n

#include tfun int fib (int n) { return n } tfun int
: fib(n-1)+ fib(n-2);
}
tfun int main (int argc, char **argv) {
if (argc != 2) { printf("Usage: fib \n"); return 1; }
int n = atoi(argv[1]);
printf("fib(%d) = %d\n", n, (int)fib(n));
return 0;
}

Sample Program (T++)

Слайд 34

Sample Program (T++)

WinCCS cluster, 4 nodes
CPU: AMD Athlon 64 X2 Dual Core Processor

Sample Program (T++) WinCCS cluster, 4 nodes CPU: AMD Athlon 64 X2
4400+ 2.21 GHz
Gigabit Ethernet
time% = timetapp(N)/timetapp(1)
CoE = 1/(n×time%)

CPU Cores

Слайд 35

Approximate calculation of Pi (C++)

#include
#include
#include
double isum(double begin, double finish, double

Approximate calculation of Pi (C++) #include #include #include double isum(double begin, double
d) {
double dl = finish - begin;
double mid = (begin + finish) / 2;
if (fabs(dl) > d)
return isum(begin, mid, d) + isum(mid, finish, d);
return f(mid) * dl;
}

double f(double x) {
return 4/(1+x*x);
}
int main(int argc, char* argv[]){
unsigned long h;
double a, b, d, sum;
if (argc < 2) {return 0;}
a = 0; b = 1; h = atol(argv[1]);
d = fabs(b - a) / h;
sum = isum(a, b, d);
printf("PI is approximately %15.15lf\n", sum);
return 0;
}

Слайд 36

Approximate calculation of Pi (T++)

#include
#include
#include
tfun double isum(double begin, double finish,

Approximate calculation of Pi (T++) #include #include #include tfun double isum(double begin,
double d) {
double dl = finish - begin;
double mid = (begin + finish) / 2;
if (fabs(dl) > d)
return isum(begin, mid, d) + isum(mid, finish, d);
return (double)f(mid) * dl;
}

tfun double f(double x) {
return 4/(1+x*x);
}
tfun int main(int argc, char* argv[]){
unsigned long h;
double a, b, d, sum;
if (argc < 2) {return 0;}
a = 0; b = 1; h = atol(argv[1]);
d = fabs(b - a) / h;
sum = isum(a, b, d);
printf("PI is approximately %15.15lf\n", sum);
return 0;
}

Слайд 37

Calculation of Pi (T++)

WinCCS cluster, 4 nodes
CPU: AMD Athlon 64 X2 Dual Core

Calculation of Pi (T++) WinCCS cluster, 4 nodes CPU: AMD Athlon 64
Processor 4400+ 2.21 GHz
Gigabit Ethernet
time% = timetapp(N)/timetapp(1)
CoE = 1/(n×time%)

CPU Cores

Слайд 38

Map-Reduce

----- Original Message ----- From: Alexy Maykov Sent: Monday, October 02, 2006 11:58 PM Subject:

Map-Reduce ----- Original Message ----- From: Alexy Maykov Sent: Monday, October 02,
MCCS projects … I work in Microsoft Live Labs … I have several questions below: 1. How would you implement Map-Reduce in OpenTS? …

Слайд 39

Map-Reduce (C++)

#include
#include
#include
#include
#include
using namespace std;
int fib (int n)
{

Map-Reduce (C++) #include #include #include #include #include using namespace std; int fib
return (n < 2) ? n : fib(n-1) + fib(n-2);
}
int plus (int val1, int val2)
{
return val1 + val2;
}
int main (int argc, char *argv[ ])
{
const int factor = 23;
const int vector_size = 40;
vector a, b, c;
vector fa, fb;

cout << " Filling vectors..." << endl;
for (int i = 1; i <= vector_size; i++)
{
a.push_back(i % factor);
b.push_back((vector_size + 1 - i) % factor);
c.push_back(0);
fa.push_back(0);
fb.push_back(0);
}
cout << " Mapping..." << endl;
transform(a.begin(), a.end(), fa.begin(), fib);
cout << " Mapping..." << endl;
transform(b.begin(), b.end(), fb.begin(), fib);
cout << " Reducing..." << endl;
transform(fa.begin(), fa.end(), fb.begin(), c.begin(), ::plus);
cout << endl << " Result: (" ;
ostream_iterator output(cout, " ");
copy(c.begin(), c.end(), output);
cout << "\b)" << endl;
return 0;
}

Слайд 40

Map-Reduce (C++)

#include
#include
#include
#include
#include
using namespace std;
int fib (int n)
{

Map-Reduce (C++) #include #include #include #include #include using namespace std; int fib
return (n < 2) ? n : fib(n-1) + fib(n-2);
}
int plus (int val1, int val2)
{
return val1 + val2;
}
int main (int argc, char *argv[ ])
{
const int factor = 23;
const int vector_size = 40;
vector a, b, c;
vector fa, fb;

cout << " Filling vectors..." << endl;
for (int i = 1; i <= vector_size; i++)
{
a.push_back(i % factor);
b.push_back((vector_size + 1 - i) % factor);
c.push_back(0);
fa.push_back(0);
fb.push_back(0);
}
cout << " Mapping..." << endl;
transform(a.begin(), a.end(), fa.begin(), fib);
cout << " Mapping..." << endl;
transform(b.begin(), b.end(), fb.begin(), fib);
cout << " Reducing..." << endl;
transform(fa.begin(), fa.end(), fb.begin(), c.begin(), ::plus);
cout << endl << " Result: (" ;
ostream_iterator output(cout, " ");
copy(c.begin(), c.end(), output);
cout << "\b)" << endl;
return 0;
}

Слайд 41

Map-Reduce (C++)

#include
#include
#include
#include
#include
using namespace std;
int fib (int n)
{

Map-Reduce (C++) #include #include #include #include #include using namespace std; int fib
return (n < 2) ? n : fib(n-1) + fib(n-2);
}
int plus (int val1, int val2)
{
return val1 + val2;
}
int main (int argc, char *argv[ ])
{
const int factor = 23;
const int vector_size = 40;
vector a, b, c;
vector fa, fb;

cout << " Filling vectors..." << endl;
for (int i = 1; i <= vector_size; i++)
{
a.push_back(i % factor);
b.push_back((vector_size + 1 - i) % factor);
c.push_back(0);
fa.push_back(0);
fb.push_back(0);
}
cout << " Mapping..." << endl;
transform(a.begin(), a.end(), fa.begin(), fib);
cout << " Mapping..." << endl;
transform(b.begin(), b.end(), fb.begin(), fib);
cout << " Reducing..." << endl;
transform(fa.begin(), fa.end(), fb.begin(), c.begin(), ::plus);
cout << endl << " Result: (" ;
ostream_iterator output(cout, " ");
copy(c.begin(), c.end(), output);
cout << "\b)" << endl;
return 0;
}

Слайд 42

Map-Reduce (C++)

#include
#include
#include
#include
#include
using namespace std;
int fib (int n)
{

Map-Reduce (C++) #include #include #include #include #include using namespace std; int fib
return (n < 2) ? n : fib(n-1) + fib(n-2);
}
int plus (int val1, int val2)
{
return val1 + val2;
}
int main (int argc, char *argv[ ])
{
const int factor = 23;
const int vector_size = 40;
vector a, b, c;
vector fa, fb;

cout << " Filling vectors..." << endl;
for (int i = 1; i <= vector_size; i++)
{
a.push_back(i % factor);
b.push_back((vector_size + 1 - i) % factor);
c.push_back(0);
fa.push_back(0);
fb.push_back(0);
}
cout << " Mapping..." << endl;
transform(a.begin(), a.end(), fa.begin(), fib);
cout << " Mapping..." << endl;
transform(b.begin(), b.end(), fb.begin(), fib);
cout << " Reducing..." << endl;
transform(fa.begin(), fa.end(), fb.begin(), c.begin(), ::plus);
cout << endl << " Result: (" ;
ostream_iterator output(cout, " ");
copy(c.begin(), c.end(), output);
cout << "\b)" << endl;
return 0;
}

Transform vectors: fa = map fib a fb = map fib b c = zipWith plus fa fb

Слайд 43

Map-Reduce (C++)

#include
#include
#include
#include
#include
using namespace std;
int fib (int n)
{

Map-Reduce (C++) #include #include #include #include #include using namespace std; int fib
return (n < 2) ? n : fib(n-1) + fib(n-2);
}
int plus (int val1, int val2)
{
return val1 + val2;
}
int main (int argc, char *argv[ ])
{
const int factor = 23;
const int vector_size = 40;
vector a, b, c;
vector fa, fb;

cout << " Filling vectors..." << endl;
for (int i = 1; i <= vector_size; i++)
{
a.push_back(i % factor);
b.push_back((vector_size + 1 - i) % factor);
c.push_back(0);
fa.push_back(0);
fb.push_back(0);
}
cout << " Mapping..." << endl;
transform(a.begin(), a.end(), fa.begin(), fib);
cout << " Mapping..." << endl;
transform(b.begin(), b.end(), fb.begin(), fib);
cout << " Reducing..." << endl;
transform(fa.begin(), fa.end(), fb.begin(), c.begin(), ::plus);
cout << endl << " Result: (" ;
ostream_iterator output(cout, " ");
copy(c.begin(), c.end(), output);
cout << "\b)" << endl;
return 0;
}

Слайд 44

Map-Reduce (T++)

#include
#include
#include
#include
#include
using namespace std;
tfun int fib (int

Map-Reduce (T++) #include #include #include #include #include using namespace std; tfun int
n)
{
return (n < 2) ? n : fib(n-1) + fib(n-2);
}
tfun int plus (int val1, int val2)
{
return val1 + val2;
}
tfun int main (int argc, char *argv[ ])
{
const int factor = 23;
const int vector_size = 40;
vector a, b, c;
vector fa, fb;

cout << " Filling vectors..." << endl;
for (int i = 1; i <= vector_size; i++)
{
a.push_back(i % factor);
b.push_back((vector_size + 1 - i) % factor);
c.push_back(0);
fa.push_back(0);
fb.push_back(0);
}
cout << " Mapping..." << endl;
transform(a.begin(), a.end(), fa.begin(), fib);
cout << " Mapping..." << endl;
transform(b.begin(), b.end(), fb.begin(), fib);
cout << " Reducing..." << endl;
transform(fa.begin(), fa.end(), fb.begin(), c.begin(), ::plus);
cout << endl << " Result: (" ;
ostream_iterator output(cout, " ");
copy(c.begin(), c.end(), output);
cout << "\b)" << endl;
return 0;
}

Слайд 45

Map-Reduce (T++): “Laziness”

Map-Reduce (T++): “Laziness”

Слайд 46

Map-Reduce (T++)

WinCCS cluster, 4 nodes
CPU: AMD Athlon 64 X2 Dual Core Processor 4400+

Map-Reduce (T++) WinCCS cluster, 4 nodes CPU: AMD Athlon 64 X2 Dual
2.21 GHz
Gigabit Ethernet
time% = timetapp(N)/timetapp(1)
CoE = 1/(n×time%)

CPU Cores

Слайд 47

Inside OpenTS

Inside OpenTS

Слайд 48

Open TS: Environment

Supports more then 1,000,000 threads per core

Open TS: Environment Supports more then 1,000,000 threads per core

Слайд 49

Supermemory

Utilization: non-ready values, resource and status information, etc.
Object-Oriented Distributed shared memory (OO

Supermemory Utilization: non-ready values, resource and status information, etc. Object-Oriented Distributed shared
DSM)
Global address space
DSM-cell versioning
On top - automatic garbage collection

Слайд 50

Multithreading & Communications

Lightweight threads
PIXELS (1 000 000 threads)
Asynchronous communications
A thread “A”

Multithreading & Communications Lightweight threads PIXELS (1 000 000 threads) Asynchronous communications
asks non-ready value (or new job)
Asynchronous request sent: Active messages & Signals delivery over network to stimulate data transfer to the thread “A”
Context switches (including a quant for communications)
Latency Hiding for node-node exchange

Слайд 51

Open TS applications (selected)

Open TS applications (selected)

Слайд 52

MultiGen Chelyabinsk State University

Level 0

Level 1

Level 2

Multi-conformation model

К0

К11

К12

К21

К22

MultiGen Chelyabinsk State University Level 0 Level 1 Level 2 Multi-conformation model

Слайд 53

MultiGen: Speedup

National Cancer Institute USA
Reg.No. NCI-609067
(AIDS drug lead)

TOSLAB company (Russia-Belgium)
Reg.No. TOSLAB A2-0261
(antiphlogistic

MultiGen: Speedup National Cancer Institute USA Reg.No. NCI-609067 (AIDS drug lead) TOSLAB
drug lead)

National Cancer Institute USA
Reg.No. NCI-641295
(AIDS drug lead)

Слайд 54

Aeromechanics Institute of Mechanics, MSU

Aeromechanics Institute of Mechanics, MSU

Слайд 55

Belocerkovski’s approach

flow presented as a collection of small elementary whirlwind (colours: clockwise and contra-clockwise rotation)

Belocerkovski’s approach flow presented as a collection of small elementary whirlwind (colours: clockwise and contra-clockwise rotation)

Слайд 56

Creating space-born radar image from hologram

Space Research Institute Development

Creating space-born radar image from hologram Space Research Institute Development

Слайд 57

Simulating broadband radar signal

Graphical User Interface
Non-PSI RAS development team (Space research institute

Simulating broadband radar signal Graphical User Interface Non-PSI RAS development team (Space
of Khrunichev corp.)

Слайд 58

Landsat Image Classification

Computational “web-service”

Landsat Image Classification Computational “web-service”

Слайд 59

Open TS vs. MPI case study

Open TS vs. MPI case study

Слайд 60

Applications

Popular and widely used
Developed by independent teams (MPI experts)
PovRay – Persistence

Applications Popular and widely used Developed by independent teams (MPI experts) PovRay
of Vision Ray-tracer, enabled for parallel run by a patch
ALCMD/MP_lite – molecular dynamics package (Ames Lab)

Слайд 61

T-PovRay vs. MPI PovRay: code complexity

~7—15 times

T-PovRay vs. MPI PovRay: code complexity ~7—15 times

Слайд 62

T-PovRay vs. MPI PovRay: performance

2CPUs AMD Opteron 248 2.2 GHz RAM 4GB,

T-PovRay vs. MPI PovRay: performance 2CPUs AMD Opteron 248 2.2 GHz RAM 4GB, GigE, LAM 7.1.1
GigE, LAM 7.1.1

Слайд 63

T-PovRay vs MPI PovRay: performance

2CPUs AMD Opteron 248 2.2 GHz RAM 4GB,

T-PovRay vs MPI PovRay: performance 2CPUs AMD Opteron 248 2.2 GHz RAM 4GB, GigE, LAM 7.1.1
GigE, LAM 7.1.1

Слайд 64

ALCMD/MPI vs ALCMD/OpenTS

MP_Lite component of ALCMD rewritten in T++
Fortran code is

ALCMD/MPI vs ALCMD/OpenTS MP_Lite component of ALCMD rewritten in T++ Fortran code is left intact
left intact

Слайд 65

ALCMD/MPI vs ALCMD/OpenTS : code complexity

~7 times

ALCMD/MPI vs ALCMD/OpenTS : code complexity ~7 times

Слайд 66

ALCMD/MPI vs ALCMD/OpenTS: performance

16 dual Athlon 1800, AMD Athlon MP 1800+ RAM

ALCMD/MPI vs ALCMD/OpenTS: performance 16 dual Athlon 1800, AMD Athlon MP 1800+
1GB, FastEthernet, LAM 7.0.6, Lennard-Jones MD, 512000 atoms

Слайд 67

ALCMD/MPI vs ALCMD/OpenTS: performance

2CPUs AMD Opteron 248 2.2 GHz RAM 4GB, GigE,

ALCMD/MPI vs ALCMD/OpenTS: performance 2CPUs AMD Opteron 248 2.2 GHz RAM 4GB,
LAM 7.1.1, Lennard-Jones MD, 512000 atoms

Слайд 68

ALCMD/MPI vs ALCMD/OpenTS: performance

2CPUs AMD Opteron 248 2.2 GHz RAM 4GB, InfiniBand,MVAMPICH

ALCMD/MPI vs ALCMD/OpenTS: performance 2CPUs AMD Opteron 248 2.2 GHz RAM 4GB,
0.9.4, Lennard-Jones MD,512000 atoms

Слайд 69

ALCMD/MPI vs ALCMD/OpenTS: performance

2CPUs AMD Opteron 248 2.2 GHz RAM 4GB, GigE,

ALCMD/MPI vs ALCMD/OpenTS: performance 2CPUs AMD Opteron 248 2.2 GHz RAM 4GB,
LAM 7.1.1, Lennard-Jones MD, 512000 atoms

Слайд 70

ALCMD/MPI vs ALCMD/OpenTS: performance

2CPUs AMD Opteron 248 2.2 GHz RAM 4GB, InfiniBand,MVAMPICH

ALCMD/MPI vs ALCMD/OpenTS: performance 2CPUs AMD Opteron 248 2.2 GHz RAM 4GB,
0.9.4, Lennard-Jones MD,512000 atoms

Слайд 71

Porting OpenTS to MS Windows CCS

Porting OpenTS to MS Windows CCS

Слайд 72

2006: contract with Microsoft “Porting OpenTS to Windows Compute Cluster Server”

OpenTS@WinCCS
inherits all

2006: contract with Microsoft “Porting OpenTS to Windows Compute Cluster Server” OpenTS@WinCCS
basic features of the original Linux version
is available under FreeBSD license
does not require any commercial compiler for T-program development — it’s only enough to install VisualC++ 2005 Express Edition (available for free on Microsoft website) and PSDK

Слайд 73

OpenTS@WinCCS

AMD64 and x86 platforms are currently supported
Integration into Microsoft Visual Studio 2005
Two

OpenTS@WinCCS AMD64 and x86 platforms are currently supported Integration into Microsoft Visual
ways for building T-applications: command line and Visual Studio IDE
An installer of OpenTS for Windows XP/2003/WCCS
Installation of WCCS SDK (including MS-MPI), if necessary
OpenTS self-testing procedure

Слайд 74

Installer of OpenTS for Windows XP/2003/WCCS

Installer of OpenTS for Windows XP/2003/WCCS

Слайд 75

OpenTS integration into Microsoft Visual Studio 2005

OpenTS integration into Microsoft Visual Studio 2005

Слайд 76

Open TS “Gadgets”

Open TS “Gadgets”

Слайд 77

Web-services, Live documents

tfun int fib (int n) {
return n < 2

Web-services, Live documents tfun int fib (int n) { return n } twsgen Perl script
? n : fib(n-1)+fib(n-2);
}










twsgen Perl script

Слайд 78

Trace visualizer

Collect trace of T-program execution
Visualize performance metrics of OpenTS runtime

Trace visualizer Collect trace of T-program execution Visualize performance metrics of OpenTS runtime

Слайд 79

Fault-tolerance

Recalculation based fault-tolerance
(+) Very simple (in comparison with full transactional model)
(+) Efficient (only minimal

Fault-tolerance Recalculation based fault-tolerance (+) Very simple (in comparison with full transactional
set of damaged functions are recalculated)
(–) Applicable only for functional programs
Fault-tolerant communications needed (eg.: DMPI v1.0)
Implemented (experimental version on Linux )

Слайд 80

Some other Gadgets

Other T-languages: T-Refal, T-Fortan
Memoization
Automatically choosing between call-style and fork-style of

Some other Gadgets Other T-languages: T-Refal, T-Fortan Memoization Automatically choosing between call-style
function invocation
Checkpointing
Heartbeat mechanism
Flavours of data references: “normal”, “glue” and “magnetic” — lazy, eager and ultra-eager (speculative) data transfer

Слайд 81

Full / Empty Bit (FEB) и Т-Система

*

СКИФ-ГРИД © 2009 Все права защищены

Слайд

Full / Empty Bit (FEB) и Т-Система * СКИФ-ГРИД © 2009 Все права защищены Слайд

Слайд 82

FEB

Модель вычисления:
«общая память»
легковесные нити
FEB — бит синхронизации на каждое слово
Тонкости: фьючеры
Аппаратная реализация:

FEB Модель вычисления: «общая память» легковесные нити FEB — бит синхронизации на
Cray XMT, MTA, T3D (2001 и далее)
Программная реализация: Sandia National Laboratories: Qthreads — www.cs.sandia.gov/qthreads

*

СКИФ-ГРИД © 2009 Все права защищены

Слайд

Слайд 83

Монотонные объекты, как безопасное расширение функциональной модели

*

СКИФ-ГРИД © 2009 Все права защищены

Слайд

Монотонные объекты, как безопасное расширение функциональной модели * СКИФ-ГРИД © 2009 Все права защищены Слайд

Слайд 84

Идеи расширения

Монотонные объекты — обладают свойством Черча-Россера
Типичная жизнь монотонного объекта:
Создание и инициализация

Идеи расширения Монотонные объекты — обладают свойством Черча-Россера Типичная жизнь монотонного объекта:
объекта
Поток обращений по обновлению («запись») и считыванию текущего состояния («чтение»)
Финализация и удаление объекта
Примеры монотонных объектов (класса сумматоры)
Примеры приложения с монотонным объектом
Способы масштабируемой реализации монотонных объектов

*

СКИФ-ГРИД © 2009 Все права защищены

Слайд

Слайд 85

Библиотеки односторонних обменов — SHMEM, Gasnet, ARMCI

*

СКИФ-ГРИД © 2009 Все права защищены

Слайд

Библиотеки односторонних обменов — SHMEM, Gasnet, ARMCI * СКИФ-ГРИД © 2009 Все права защищены Слайд

Слайд 86

Основные черты технологии SHMEM

«Чужие» данные не обрабатываются на месте, а копируются предварительно

Основные черты технологии SHMEM «Чужие» данные не обрабатываются на месте, а копируются
туда, где они нужны — как в MPI
Преобладающий режим копирования – запись, возможно, мелкозернистая
Синхронизация – барьерная
Важны
высокий message rate (например, для приложений со сложной организацией данных: неструктурных сеток и т.п.)
низкая подлинная латентность (для снижения размера зерна параллелизма, независимо от того, сложно или просто организованы данные)
Однородность доступа не важна
Message rate можно обеспечить программно, грамотной буферизацией
Низкую подлинную латентность может дать только аппаратура

*

СКИФ-ГРИД © 2009 Все права защищены

Слайд

Слайд 87

Технология SHMEM

Рассчитана на полностью однородные многопроцессорные вычислители (общность системы команд, машинного представления

Технология SHMEM Рассчитана на полностью однородные многопроцессорные вычислители (общность системы команд, машинного
чисел, одинаковая операционная система, один и тот же исполняемый файл)
Программа на С, использующая SHMEM, должна включать файл заголовков shmem.h.
shmem_init() — инициализация
my_pe() — собственный номер процесса;
num_pes() — число процессов

*

СКИФ-ГРИД © 2009 Все права защищены

Слайд

Слайд 88

SHMEM: Односторонние обмены

put --- односторонняя запись в чужую память
get --- одностороннее чтение

SHMEM: Односторонние обмены put --- односторонняя запись в чужую память get ---
из чужой памяти
Поддержаны передачи данных разных типов, одного значения, сплошного массива или массива, расположенного в памяти с шагом (например, столбец двумерного массива в С)
shmem_double_p( addr, value, pe ) shmem_float_put( addr, src, len, pe )
Можно обмениваться областями памяти статических (но не автоматических!) переменных. И даже поддержан специальный malloc

*

СКИФ-ГРИД © 2009 Все права защищены

Слайд

Слайд 89

SHMEM: Операции синхронизации

Возможность выполнить барьерную синхронизацию всех или лишь указанных процессов.
При выполнении

SHMEM: Операции синхронизации Возможность выполнить барьерную синхронизацию всех или лишь указанных процессов.
синхронизации гарантируется, что все выданные до барьера запросы типа put будут завершены.
shmem_barrier_all()
shmem_barrier( start, stride, size, sync )
step = 2stride
синхронизуются процессы с номерами start, strat+step, … strat+step*(size-1)
sync — рабочий массив (расписать нулями!) типа long, длиной _SHMEM_BARRIER_SYNC_SIZE

*

СКИФ-ГРИД © 2009 Все права защищены

Слайд

Слайд 90

Ожидание переменной

shmem_wait( &var, value ) — на «==»
ожидание &var == value
shmem_int_wait_until( &var,

Ожидание переменной shmem_wait( &var, value ) — на «==» ожидание &var ==
SHMEM_CMP_GT, value )
ожидание &var > value
shmem_fence() — гарантирует, что все выданные ранее из данного процесса запросы типа put будут завершены.

*

СКИФ-ГРИД © 2009 Все права защищены

Слайд

Слайд 91

Модели PGAS (Partitioned Global Address Space), DSM (Distributed Shared Memory), языки Co-Array Fortran, UPC…

*

СКИФ-ГРИД ©

Модели PGAS (Partitioned Global Address Space), DSM (Distributed Shared Memory), языки Co-Array
2009 Все права защищены

Слайд

Слайд 92

Модель памяти

Разделяемая (shared) память
Любой процесс может использовать ее или указывать на нее
Приватная

Модель памяти Разделяемая (shared) память Любой процесс может использовать ее или указывать
память
Только «локальный» процесс может использовать ее или указывать на нее

*

СКИФ-ГРИД © 2009 Все права защищены

Слайд

Слайд 93

Что такое UPC

Unified Parallel C
Расширение ANSI C примитивами задания явного параллелизма
Основан на

Что такое UPC Unified Parallel C Расширение ANSI C примитивами задания явного
«distributed shared memory»
Основные идеи
Сохранить философию С:
Программист умен и аккуратен
Близость к железу (насколько возможно) для лучшей эффективности (но можно получить и проблемы)
Простой и привычный синтаксис

*

СКИФ-ГРИД © 2009 Все права защищены

Слайд

Слайд 94

Модель исполнения

Несколько процессов (нитей 0..THREADS-1) работают независимо
MYTHREAD определяет номер процесса
THREADS — число

Модель исполнения Несколько процессов (нитей 0..THREADS-1) работают независимо MYTHREAD определяет номер процесса
процессов
Когда необходимо для синхронизации используются
Барьеры
Блокировки
Управление поведением памяти

*

СКИФ-ГРИД © 2009 Все права защищены

Слайд

Слайд 95

Пример 1

//vect_add.c
#include
#define N 100*THREADS
shared int a[N], b[N], c[N];
void main(){
int i;
for(i=0; i

Пример 1 //vect_add.c #include #define N 100*THREADS shared int a[N], b[N], c[N];
i++)
if (MYTHREAD==i%THREADS)
c[i]=a[i]+b[i];
}

*

СКИФ-ГРИД © 2009 Все права защищены

Слайд

Слайд 96

Вместо заключения

*

СКИФ-ГРИД © 2009 Все права защищены

Слайд

Вместо заключения * СКИФ-ГРИД © 2009 Все права защищены Слайд
Имя файла: «Есть-ли-жизнь-после-MPI?».pptx
Количество просмотров: 120
Количество скачиваний: 0