Слайд 2Отчетность
Экзамен
Лекций – 18 ч (9 шт)
Практика – 34 ч – ФОМ
![Отчетность Экзамен Лекций – 18 ч (9 шт) Практика – 34 ч](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/966755/slide-1.jpg)
-180510
18 ч – ФОМ- 181001
Слайд 3Темы
Введение. Основные понятия
Статистические методы сжатия данных
Словарные методы
Вейвлетные методы сжатия
Сжатие изображений
Сжатие видео
Сжатие аудио
Практика
![Темы Введение. Основные понятия Статистические методы сжатия данных Словарные методы Вейвлетные методы](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/966755/slide-2.jpg)
– OpenCV
Слайд 4Введение
Проблема коммуникации
Основные понятия
![Введение Проблема коммуникации Основные понятия](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/966755/slide-3.jpg)
Слайд 5Проблема коммуникации
«Главное свойство системы связи заключается в том, что она должна точно
![Проблема коммуникации «Главное свойство системы связи заключается в том, что она должна](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/966755/slide-4.jpg)
или приближенно воспроизвести в определенной точке пространства и времени некоторое сообщение, выбранное в другой точке. Обычно, это сообщение имеет какой-то смысл, однако это совершенно неважно для решения поставленной и инженерной задачи. Самое главное заключается в том, что посылаемое сообщение выбирается из некоторого семейства возможных сообщений»
Клод Шеннон, 1948 г.
Слайд 6Последствия сформулированной проблемы
Возникла теория информации
Все коммуникации должны быть цифровыми, т.е. передача данных
![Последствия сформулированной проблемы Возникла теория информации Все коммуникации должны быть цифровыми, т.е.](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/966755/slide-5.jpg)
должна идти как передача двоичных цифр
Слайд 7Основные понятия
Система связи
Шум
Кодирование источника
![Основные понятия Система связи Шум Кодирование источника](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/966755/slide-6.jpg)
Слайд 8Кодирование источника
Мера компактности представления данных – информационная энтропия
Информационная энтропия - мера непредсказуемости
![Кодирование источника Мера компактности представления данных – информационная энтропия Информационная энтропия -](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/966755/slide-7.jpg)
появления какого-либо символа первичного алфавита.
Слайд 9Определение Информационной энтропии по Шеннону
Клод Шеннон предположил, что прирост информации равен утраченной
![Определение Информационной энтропии по Шеннону Клод Шеннон предположил, что прирост информации равен](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/966755/slide-8.jpg)
неопределённости, и задал требования к её измерению:
мера должна быть непрерывной; то есть изменение значения величины вероятности на малую величину должно вызывать малое результирующее изменение функции;
в случае, когда все варианты (буквы в приведённом примере) равновероятны, увеличение количества вариантов (букв) должно всегда увеличивать значение функции;
должна быть возможность сделать выбор (в нашем примере букв) в два шага, в которых значение функции конечного результата должно являться суммой функций промежуточных результатов.
Слайд 12Энтропийное сжатие
(сжатие без потерь)
Энтропия сжатых данных совпадает с энтропией исходного источника.
![Энтропийное сжатие (сжатие без потерь) Энтропия сжатых данных совпадает с энтропией исходного](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/966755/slide-11.jpg)
При этом предполагается, что по сжатым данным можно полностью восстановить исходную информацию.
Слайд 13Избыточность данных
Текст
Код ASCII является избыточным, т.к. вероятности появления букв в тексте разная
Если
![Избыточность данных Текст Код ASCII является избыточным, т.к. вероятности появления букв в](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/966755/slide-12.jpg)
зашифровать часто встречающиеся буквы коротким кодом, а редкие буквы – длинным, то уберем избыточность
Изображения
Есть основные цвета и дополнительные, а кодируются одинаково – избыточность
Соседние пиксели обычно имеют близкие цвета - избыточность
Слайд 14Основа сжатия данных
Определить избыточность для источника данных
Подобрать алгоритм сжатия, убирающий именно эту
![Основа сжатия данных Определить избыточность для источника данных Подобрать алгоритм сжатия, убирающий именно эту избыточность](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/966755/slide-13.jpg)
избыточность
Слайд 15Термины
Компрессор или кодер -программа, которая сжимает «сырой» исходный файл и создает на
![Термины Компрессор или кодер -программа, которая сжимает «сырой» исходный файл и создает](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/966755/slide-14.jpg)
выходе файл со сжатыми данными, в которых мало избыточности.
Декомпрессор или декодер работает в обратном направлении. Термин кодек иногда используется для объединения кодера и декодера.
Слайд 16Термины
Симметричное сжатие – это когда и кодер, и декодер используют один и
![Термины Симметричное сжатие – это когда и кодер, и декодер используют один](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/966755/slide-15.jpg)
тот же базовый алгоритм, но используют его в противоположных направлениях.
Слайд 18Тест
Что предложил Шеннон для решения проблемы передачи информации через зашумленный канал?
Белый шум
![Тест Что предложил Шеннон для решения проблемы передачи информации через зашумленный канал?](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/966755/slide-17.jpg)
не имеет избыточности. Можно ли его сжать?
Исходный алфавит представляет 4 символа TGRD c вероятностями появления 0,80; 0,10; 0,05; 0,05. Рассчитайте минимальное количество бит, необходимое для кодирования следующей строки TGTGTTTRDD