Содержание
- 2. Кодирование источника Для источников с памятью избыточность тем больше, чем выше степень статистической (вероятностной) зависимости символов
- 3. Кодирование Один символ источника → кодовое слово (кодовая комбинация) Если для всех символов источника длина кодовых
- 4. При неравномерном коде говорят о средней длине кодового слова (усреднение длин кодовых слов производится по априорному
- 5. H’(U) = uC H(U) = uK log M = C µ= uK / uC = H(U)
- 6. µ = uK/ uC - среднее количество символов кода приходящиеся на одно сообщение Степень приближения к
- 7. Избыточность дискретных источников обуславливается двумя причинами: 1) памятью источника; 2) неравномерностью сообщений. Универсальным способом уменьшения избыточности
- 8. Пример. Рассмотрим источник, вырабатывающий два независимых символа с вероятностями 0,1 и 0,9. В этом тривиальном случае
- 10. 1-я Теорема Шеннона Предельные возможности статистического кодирования раскрывается в теореме Шеннона для канала без шума, которая
- 11. 1-я Теорема Шеннона Получить меньшее значение µ невозможно (обратная теорема). Обратная часть теоремы утверждающая, что невозможно
- 12. 1-я Теорема Шеннона «Основная теорема о кодировании в отсутствие шумов»: Среднюю длину кодовых слов для передачи
- 13. Пример. Если источник без памяти имеет объем алфавита 32, то при равновероятных символах его энтропия равна
- 14. Практическое значение теоремы Шеннона заключается в возможности повышения эффективности систем передачи информации (систем связи) путем применения
- 15. Пример 8.5. Известный код Морзе служит примером неравномерного кода. Кодовые слова состоят из трех различных символов:
- 16. Кодирование источника по Шеннону – Фано.
- 17. Ни одна кодовая комбинация не является началом какой-либо другой кодовой комбинации (префиксное свойство) Дерево декодирования (граф
- 18. Средняя длина кодовой комбинации для построенного кода Согласно теореме Шеннона при оптимальном кодировании можно достичь средней
- 19. Определим вероятность появления определенного символа в кодовой комбинации (пусть это будет символ 1). Её можно найти
- 20. при оптимальном кодировании источника кодовые символы равновероятны; такое кодирование является безызбыточным. Источник вместе с кодером можно
- 21. Кодирование источника по Хаффману Все символы алфавита записываются в порядке убывания вероятностей. 2. Два нижних символа
- 22. Кодирование источника по Хаффмену
- 23. Энтропия алфавита . Средняя длина кодового слова =0,3⋅2+0,2⋅2+0,15⋅3+0,15⋅3+0,1⋅3+0,04⋅4+0,03⋅5+0,03⋅5=2,66 Вероятность символа 1 в последовательности кодовых комбинаций находится
- 24. Оптимальность кода Шеннона – Фано в рассмотренном примере объясняется специально подобранными вероятностями символов, так, что на
- 25. Пример. Рассмотрим источник, вырабатывающий два независимых символа с вероятностями 0,1 и 0,9. В этом тривиальном случае
- 27. Скачать презентацию
























Количественная характеристика информации
Концепция развития сервисного обслуживания предприятий Машиностроительного комплекса
Функции объекта. Характеристика объекта по плану
Универсальное автоматизированное рабочее место для проведения общероссийского дня приема граждан
Автоматизированная генерация тестов с помощью программного обеспечения
Анимационный станок. Версия для работы в полевых условиях
Анимация в GIMPг
Аппаратная реализация компьютера
Представление чисел в компьютере
Архитектура операционных систем. Процессы и их поддержка в операционной системе. (Лекция 2)
Объекты в JavaScript, их свойства и методы
Useful invention. E-reader
Памятка по составлению презентации
Понятие и топологии компьютерных сетей
Роль средств массовой информации в демократическом правовом государстве
Коррекция цвета
Урок по информационной безопасности в сети Интернет
Faol supervayzerlarini e’tirof qilish dasturi
Поиск в массиве
Одномерные массивы целых чисел
Практическое применение FineReader, сканирование текста
Цели на сайте
Замена системы управления блоком с кодом
Разработка системы распознавания печатного текста
Расчет микросборки (микровыключателя)
Развитие экспорта медицинских услуг (Волгоградская область)
Инструменты государственной поддержки IT-отрасли
Системы счисления