Содержание
- 2. Случайное событие – означает отсутствие полной уверенности в его наступлении. Пусть опыт имеет n равновероятных исходов.
- 3. f(1) = 0, если n = 1 исход опыта не является случайным и неопределенность отсутствует; f(n)
- 4. Пусть α и β независимые опыты. nα, nβ - число равновероятных исходов. Рассмотрим сложный опыт, который
- 5. f(nα ∙ nβ) - мера неопределенности сложного опыта. α и β – независимы, т.е. в сложном
- 6. f(1) = 0 f(n) возрастает с ростом n f(nα ∙ nβ)= f(nα) + f(nβ) Этим свойствам
- 7. Выбор основания логарифма значения не имеет. переход к другому основанию состоит во введении одинакового для обеих
- 8. Удобно, основание 2. За единицу измерения принимается неопределенность, содержащаяся в опыте, имеющем лишь два равновероятных исхода,
- 9. Определение. Мера неопределенности опыта, имеющего n равновероятных исходов равна f(n)=log2(n). (4.1) Эта величина – энтропия, обозначается
- 10. Рассмотрим опыт с n равновероятными исходами. Неопределенность, вносимую одним исходом? где р =1/n - вероятность любого
- 11. Пусть исходы неравновероятны, р(А1) и р(А2) – вероятности исходов. Если опыт α имеет n неравновероятных исходов
- 12. Используя формулу для среднего значения дискретных случайных величин: А(α) - обозначает исходы, возможные в опыте α.
- 13. Определение. Энтропия является мерой неопределенности опыта, в котором проявляются случайные события, и равна средней неопределенности всех
- 14. ПРИМЕР Имеются два ящика, в каждом из которых по 12 шаров. В первом - 3 белых,
- 15. Нβ > Нα, т.е. неопределенность результата в опыте β выше и, следовательно, предсказать его можно с
- 16. Свойства энтропии 1) Н > 0. Н = 0 в двух случаях: (а) если p(Aj) =
- 17. 2) Для двух независимых опытов α и β Энтропия сложного опыта, состоящего из нескольких независимых, равна
- 18. 3) При прочих равных условиях наибольшую энтропию имеет опыт с равновероятными исходами.
- 19. Условная энтропия Найдем энтропию сложного опыта α ^ β (опыты не являются независимыми, на исход β
- 20. Подставим в (7)
- 21. В первом слагаемом индекс j имеется только у B; изменив порядок суммирования, получим члены вида:
- 22. Свойства условной энтропии 1. Условная энтропия является величиной неотрицательной. Hα(β) = 0, если любой исход α
- 23. Пример 2.2. В ящике имеются 2 белых шара и 4 черных. Из ящика извлекают последовательно два
- 24. Задача 2.3. Имеется три тела с одинаковыми внешними размерами, но с разными массами х1, х2 и
- 25. 2.2. Энтропия и информация Определение. I - информацией относительно опыта β, содержащейся в опыте α I(α,β)=H
- 26. Следствие 1. Единицы измерения количество информации – бит. Следствие 2. Пусть опыт α = β, тогда
- 27. Свойств информации: 1. /(α, β) ≥ 0, причем /(α, β) = 0 тогда и только тогда,
- 28. Пример 2.4. Какое количество информации требуется, чтобы узнать исход броска монеты? Пример 2.5. Виктор Сергеевич задумал
- 30. Количество информации численно равно числу вопросов с равновероятными бинарными вариантами ответов, которые необходимо задать, чтобы полностью
- 31. Формула Хартли (1928). 30.11.1888 - 1.05.1970 (81). США
- 32. Cвязывает количество равновероятных состояний (n) и (/), что любое из этих состояний реализовалось. Частным случаем применения
- 33. Пример 2.6 В.С. случайным образом вынимает карта из колоды в 32 карты. Какое количество информации требуется,
- 34. Выводы 1. Выражение является статистическим определением понятия «информация», поскольку в него входят вероятности возможных исходов опыта.
- 35. 2. Если начальная энтропия опыта Н1, а в результате сообщения информации / энтропия становится равной Н2
- 36. Если изначально равновероятных исходов было n1, а в результате передачи информации I неопределенность уменьшилась, и число
- 37. Определение. Информация - это содержание сообщения, понижающего неопределенность некоторого опыта с неоднозначным исходом; убыль связанной с
- 38. 3. Аддитивность информации. Пусть IА = log2nA - первого опыта, IB = log2nB - второго опыта,
- 39. 4. Рассмотрим опыт, реализующийся посредством двух случайных событий; если эти события равновероятны, р1 = р2 =
- 40. График этой функции Ответ на бинарный вопрос может содержать не более 1 бит информации; информация равна
- 41. Пример 2.8. При угадывании результата броска игральной кости задается вопрос «Выпало 6?». Какое количество информации содержит
- 42. На бытовом уровне, «информация» отождествляется с «информированностью», т.е. человеческим знанием. В «теории информации» информация является мерой
- 43. Глава 3. Кодирование символьной информации 3.1. Постановка задачи кодирования. Первая теорема Шеннона 3.2. Способы построения двоичных
- 44. 3.1. Постановка задачи кодирования. Первая теорема Шеннона Код (1) правило, описывающее соответствие знаков или их сочетаний
- 45. Декодирование - операция, обратная кодированию, т.е. восстановление информации в первичном алфавите по полученной последовательности кодов. Кодер
- 46. Источник представляет информацию в форме дискретного сообщения, используя для этого алфавит - первичным. Далее сообщение попадает
- 47. Математическая постановка задачи кодировании. Пусть первичный алфавит А состоит из N знаков со средней информацией на
- 48. Операция обратимого кодирования может увеличить количество информации в сообщении, но не может его уменьшить.
- 49. т/n - характеризует среднее число знаков вторичного алфавита, которое приходится использовать для кодирования одного знака первичного
- 50. Обычно N > М и I(А) > I(В), откуда К(А,В) > 1, т.е. один знак первичного
- 51. Минимально возможным значением средней длины кода устанавливающее нижний предел длины кода.
- 52. Первая теорема Шеннона (основная теорема о кодировании при отсутствии помех). 1. При отсутствии помех всегда возможен
- 53. Смысл теоремы: теорема открывает принципиальную возможность оптимального кодирования, т.е. построения кода со средней длиной Кmin(А,В).
- 54. Два пути сокращения Кmin(А,В): 1. уменьшение числителя - если при кодировании учесть различие частот появления разных
- 55. Для первого приближения Относительная избыточность кода:
- 56. Данная величина показывает, насколько операция кодирования увеличила длину исходного сообщения. Q(A,B) → 0 при К(А,В) →
- 57. Наиболее важной для практики оказывается ситуация, когда М = 2, т.е. для представления кодов в линии
- 59. 3.2. Способы построения двоичных кодов
- 60. Возможны следующие особенности вторичного алфавита: элементарные сигналы (0 и 1) могут иметь одинаковые длительности (to=t1) или
- 61. 3.2.1. Алфавитное неравномерное двоичное кодирование сигналами равной длительности. Префиксные коды
- 62. знаки первичного алфавита (например, русского) кодируются комбинациями символов двоичного алфавита (т.е. 0 и 1). длина кодов
- 63. Для передачи информации, в среднем приходящейся на знак первичного алфавита, необходимо время T=K(A,2) ∙t Построить такую
- 64. Решение: коды знаков первичного алфавита, вероятность появления которых в сообщении выше, следует строить из возможно меньшего
- 65. А) Неравномерный код с разделителем Разделителем отдельных кодов букв будет последовательность 00. Разделителем слов-слов – 000.
- 66. Правила построения кодов: код признака конца знака может быть включен в код буквы (т.е. коды всех
- 68. Среднюю длину кода К(r,2) для данного способа кодирования: (по определению средней дискретной величины).
- 69. I1(r) = 4,356 бит. Избыточность данного кода: При данном способе кодирования будет передаваться приблизительно на 14%
- 70. Рассмотрев один из вариантов двоичного неравномерного кодирования, возникают вопросы: 1) Возможно ли такое кодирование без использования
- 71. Неравномерный код может быть однозначно декодирован, если никакой из кодов не совпадает с началом (префиксом) какого-либо
- 72. Пример 3.1. Пусть имеется следующая таблица префиксных кодов: Требуется декодировать сообщение: 00100010000111010101110000110
- 73. Декодирование производится циклически 1. отрезать от текущего сообщения крайний левый символ, присоединить справа к рабочему кодовому
- 75. Таким образом, использование префиксного кодирования позволяет делать сообщение более коротким. Условие Фано не устанавливает способа формирования
- 76. В) Префиксный код Шеннона-Фано. Данный вариант кодирования был предложен в 1948-1949 гг. независимо Р. Фано и
- 77. Пусть имеется первичный алфавит А, состоящий из шести знаков а1 ...а6 с вероятностями появления в сообщении,
- 79. Средняя длина кода равна: I1(A) = 2,390 бит. избыточность кода Q(A,2) = 0,0249, т.е. около 2,5%.
- 80. Данный код нельзя считать оптимальным, поскольку вероятности появления 0 и 1 неодинаковы (6/17=0,35 и 11/17=0,65, соответственно).
- 81. С) Префиксный код Хаффмана
- 82. Способ оптимального префиксного двоичного кодирования был предложен Д. Хаффманом. Построение кодов Хаффмана рассмотрим на том же
- 83. Аналогично продолжим создавать новые алфавиты, пока в последнем не останется два знака. Количество таких шагов будет
- 84. В промежуточных алфавитах каждый раз будем переупорядочивать знаки по убыванию вероятностей.
- 85. Теперь в обратном направлении проведем процедуру кодирования.
- 86. К(А,2) = 0,3 ∙ 2 + 0,2 ∙ 2 + 0,2 ∙ 2 +0,15 ∙ 3
- 87. Код Хаффмана важен в теоретическом отношении, поскольку можно доказать, что он является самым экономичным из всех
- 88. Метод Хаффмана и его модификация - метод адаптивного кодирования (динамическое кодирование Хаффмана) - нашли широчайшее применение
- 90. Скачать презентацию























































































Антивирусная программа
Примеры решения задач
Совершенствование внеурочной учебной деятельности учащихся средствами информационных технологий
Создание КЭ сетки для сложной трехмерной детали
Таблица истинности. Тест
Контрольная работа (Презентация)
Дипломный проект. Программный комплекс Система деканат для обработки данных студентов МИРЭА
Логические основы и элементы ЭВМ
Кибер безопасность
Презентация на тему Что такое мультимедиа (8 класс)
Маски выделения. Photoshop
Інформаційні технології в освіті - виклик глобального інформаційного суспільства
Задание и оформление
Электронные таблицы в прикладной среде Microsoft Excel
Театральное искусство
TK
Инструкция подачи запроса на получение сертификата с использованием онлайн сервиса
Разработка программных модулей программного обеспечения для компьютерных систем
Программирование (Python). Символьные строки
Розробка веб-додатку для пошуку даних співробітників
Информационная система (ИС) медпункта вуза
Задание-практикум на навигацию Найди кабинет врача-педиатра
Программное обеспечение. Лекция 6
Компьютерная грамотность
Simulink library browser
shuffle(x, random=None)
Корпоративная информационная система - КИС ПИРС
Семь кошельков. Финансовая пирамида