Анатолий Свириденков (сodedgers.com) Блог: http://bit.ly/cuda_blog

Содержание

Слайд 2

Проблематика

Где нужна вычислительная мощность:
- Ускорение вычислений
- Переход в реальное время

Проблематика Где нужна вычислительная мощность: - Ускорение вычислений - Переход в реальное
- Разгрузка CPU
- Улучшение качества

Слайд 3

Чего ожидать от параллелизма

Закон Амдала (ускорение от параллелизма):
Sp = 1 /

Чего ожидать от параллелизма Закон Амдала (ускорение от параллелизма): Sp = 1
(a + (1 – a) / p)
p – количество потоков
a – доля последовательных вычислений

Слайд 4

- Параллелизм данных, DPL: MMX, SSE, и т. д.
- Параллелизм кода, IPL:

- Параллелизм данных, DPL: MMX, SSE, и т. д. - Параллелизм кода,
спекулятивные вычисления и конвейер, VLIW
- Квази многопоточность, многоядерность, hyper threading
- Кластеры

Примеры параллелизма

Слайд 5

Предыстория к GPGPU

1990

1995

2000

2005

2010

Сопроцессор

Видео- ускоритель

Шейдеры

GPU

Предыстория к GPGPU 1990 1995 2000 2005 2010 Сопроцессор Видео- ускоритель Шейдеры GPU

Слайд 6

Рост производительности

GigaFLOPS

годы

500

1000

1500

2002

2004

2006

2008

2010

GPU

CPU

Рост производительности GigaFLOPS годы 500 1000 1500 2002 2004 2006 2008 2010 GPU CPU

Слайд 7

Терминология

- host - CPU
- device - GPU
- ядро —

Терминология - host - CPU - device - GPU - ядро —
код запускаемого на GPU из основного приложения
- поток — часть вычислений исполняемых параллельно
- сетка (grid) — все множество потоков для одного ядра
- блок — набор потоков исполняемых на одном SM
- warp — набор потоков физически исполняемых
параллельно

Слайд 8

Программная модель памяти

Программная модель памяти

Слайд 9

Программная модель потоков

B (0:0)

B (0:1)

B (0:2)

B (0:3)

B (1:0)

B (1:1)

B (1:2)

B (1:3)

B (2:0)

B

Программная модель потоков B (0:0) B (0:1) B (0:2) B (0:3) B
(2:1)

B (2:2)

B (2:3)

B (3:0)

B (3:1)

B (3:2)

B (3:3)

B (4:0)

B (4:1)

B (4:2)

B (4:3)

Grid

Block

T (0:0:0)

T (0:1:0)

T (0:2:0)

T (1:0:0)

T (1:1:0)

T (1:2:0)

T
(2:0:0)

T (2:1:0)

T (2:2:0)

Приведен пример сетки из 20 блоков (5x4), в каждом блоке 18 (3x3x2) потоков. Всего в сетке 360 потоков.

Слайд 10

Особенности программирования
- функция ядро возвращает только void
- память — узкое

Особенности программирования - функция ядро возвращает только void - память — узкое
место в вычисленях и требует особого внимания
- шина PCI-Express — узкое место в вычислениях
- ветвления внутри warp снижают быстродействие

Слайд 11

Программный стек CUDA

Device

Host

CUDA Driver

CUDA Driver API

CUDA Runtime API

Libraries

Application

Программный стек CUDA Device Host CUDA Driver CUDA Driver API CUDA Runtime API Libraries Application

Слайд 12

Последняя версия CUDA Toolkit 4.0 RC2
- https://nvdeveloper.nvidia.com
Состав:
- Драйвер для разработчиков

Последняя версия CUDA Toolkit 4.0 RC2 - https://nvdeveloper.nvidia.com Состав: - Драйвер для
- GPU Computing SDK
GPU Computing SDK:
- Компилятор
- Набор утилит
- Документация
- Библиотеки (CUBLAS, CUSPARSE)
- Примеры

CUDA Toolkit

Слайд 13

Самый важный параметр:
--help (-help) — печатает справку
Основные выходные форматы (и ключи компиляции):

Самый важный параметр: --help (-help) — печатает справку Основные выходные форматы (и
--cubin (-cubin) — компилирует в виртуальный формат cubin
--ptx (-ptx) — компиляция в ассемблер для gpu
--gpu (-gpu) — компиляция в бинарный формат
NVIDIA Parallel nSight специально разработан для работы в Visual Studio

Компилятор NVCC

Слайд 14

Типы функций

- по умолчанию все функции __host__
- __host__ и __device__

Типы функций - по умолчанию все функции __host__ - __host__ и __device__
совместимы, компилятор создаст две версии: для CPU и GPU

__global__ void sum(float *c, float *a, float b);
__host__ __device__ float add(float a, float b);

Слайд 15

Hello World! Сложение массивов.

#define N 1024
// GPU
__global__ void sum(float *c, float *a, float

Hello World! Сложение массивов. #define N 1024 // GPU __global__ void sum(float
*b)
{
int index = blockIdx.x * blockDim.x + threadIdx.x;
c[index] = a[index] + b[index];
}
// CPU
void sum(float *c, float *a, float b)
{
for(int i = 0; i < N; i++)
{
c[i] = a[i] + b[i];
}
}

Встроеные константы:
blockIdx — номер блока у текущего
потока;
blockDim — количество блоков;
threadIdx — номер потока в блоке.

Слайд 16

Hello World! CPU инициализация

int main(int argc, char **argv)
{
float *a, *b, *c;

Hello World! CPU инициализация int main(int argc, char **argv) { float *a,
float *A, *B, *C;
a = (float*) malloc(N * sizeof(float));
b = (float*) malloc(N * sizeof(float));
c = (float*) malloc(N * sizeof(float));
cudaMalloc((void **)&A, N * sizeof(float));
cudaMalloc((void **)&B, N * sizeof(float));
cudaMalloc((void **)&C, N * sizeof(float));
for(int i = 0; i < N; i++)
{
a[i] = RandFloat(0.0f, 1.0f);
b[i] = RandFloat(0.0f, 1.0f);
}

Слайд 17

Hello World! CPU вызов ядра

cudaMemcpy(A, a, N * sizeof(float), cudaMemcpyHostToDevice);
cudaMemcpy(B,

Hello World! CPU вызов ядра cudaMemcpy(A, a, N * sizeof(float), cudaMemcpyHostToDevice); cudaMemcpy(B,
b, N * sizeof(float), cudaMemcpyHostToDevice);
sum<<>>(C, A, B);
cudaMemcpy(c, C, N * sizeof(float), cudaMemcpyDeviceToHost);
cudaFree(A);
cudaFree(B);
cudaFree(C);
free(a);
free(b);
free(c);
}

Слайд 18

Hello World! CPU вызов ядра

cudaMemcpy(A, a, N * sizeof(float), cudaMemcpyHostToDevice);
cudaMemcpy(B,

Hello World! CPU вызов ядра cudaMemcpy(A, a, N * sizeof(float), cudaMemcpyHostToDevice); cudaMemcpy(B,
b, N * sizeof(float), cudaMemcpyHostToDevice);
sum<<>>(C, A, B);
cudaMemcpy(c, C, N * sizeof(float), cudaMemcpyDeviceToHost);
cudaFree(A);
cudaFree(B);
cudaFree(C);
free(a);
free(b);
free(c);
}

Слайд 19

Hello World! CPU вызов ядра

cudaMemcpy(A, a, N * sizeof(float), cudaMemcpyHostToDevice);
cudaMemcpy(B,

Hello World! CPU вызов ядра cudaMemcpy(A, a, N * sizeof(float), cudaMemcpyHostToDevice); cudaMemcpy(B,
b, N * sizeof(float), cudaMemcpyHostToDevice);
sum<<>>(C, A, B);
cudaMemcpy(c, C, N * sizeof(float), cudaMemcpyDeviceToHost);
cudaFree(A);
cudaFree(B);
cudaFree(C);
free(a);
free(b);
free(c);
}

Слайд 20

Hello World! CPU вызов ядра

cudaMemcpy(A, a, N * sizeof(float), cudaMemcpyHostToDevice);
cudaMemcpy(B,

Hello World! CPU вызов ядра cudaMemcpy(A, a, N * sizeof(float), cudaMemcpyHostToDevice); cudaMemcpy(B,
b, N * sizeof(float), cudaMemcpyHostToDevice);
sum<<>>(C, A, B);
cudaMemcpy(c, C, N * sizeof(float), cudaMemcpyDeviceToHost);
cudaFree(A);
cudaFree(B);
cudaFree(C);
free(a);
free(b);
free(c);
}

Слайд 21

GPGPU прочее

DirectCompute — библиотека от Microsoft. Часть DirectX;
OpenCL — кроссплатформенная библиотека;
Готовые

GPGPU прочее DirectCompute — библиотека от Microsoft. Часть DirectX; OpenCL — кроссплатформенная
библиотеки с поддержкой GPGPU:
- OpenCV — обработка изображения и компьютерное зрение
- CUBLAS — математические вычисления
- CUFFT — быстрые преобразования фурье
- CUSPARSE — библиотека линейной алгебры
Пакеты ПО со встроенной поддержкой GPU, например Matlab

Слайд 22

OpenCV

#include
#include "opencv2/opencv.hpp"
#include "opencv2/gpu/gpu.hpp"
int main (int argc, char* argv[])
{
cv::gpu::GpuMat dst, src

OpenCV #include #include "opencv2/opencv.hpp" #include "opencv2/gpu/gpu.hpp" int main (int argc, char* argv[])
= cv::imread("file.png",
CV_LOAD_IMAGE_GRAYSCALE);
cv::gpu::threshold(src, dst, 128.0, 255.0, CV_THRESH_BINARY);
cv::imshow("Result", dst);
cv::waitKey();
return 0;
}
Имя файла: Анатолий-Свириденков-(сodedgers.com)-Блог:-http://bit.ly/cuda_blog.pptx
Количество просмотров: 587
Количество скачиваний: 0