Содержание
- 2. Классификация мер информации Синтаксическая мера информации Семантическая мера информации Прагматическая мера информации
- 3. Единицы измерения информации 1 бит = кол-во двоичных цифр (0 и 1) Пример: код 11001011 имеет
- 4. Вероятностный подход События, о которых нельзя сказать произойдут они или нет, пока не будет осуществлен эксперимент,
- 5. Энтропия (часть1) Энтропия – численная мера измеряющая неопределенность. Некоторые свойства функции: f (1)=0, так как при
- 6. общее число исходов М – число попыток (пример: Х = 62 = 36) Энтропия системы из
- 7. Обозначим через K Получим f(X) = K ∙ lnX или H = K ∙ lnX, таким
- 8. Сопоставление мер информации
- 9. Кодирование информации. Информатика
- 10. Абстрактный алфавит Алфавит - множество знаков, в котором определен их порядок (общеизвестен порядок знаков в русском
- 11. Математическая постановка задачи кодирования А - первичный алфавит. Состоит из N знаков со средней информацией на
- 12. IS (A) ≤ If (B) – условие обратимости кодирования, т.е не исчезновения информации. n* IА ≤
- 13. Первая теорема Шеннона Примером избыточности может служить предложение «в словох всо глосноо зомононо боквой о» Существует
- 14. Вторая теорема Шеннона При наличии помех в канале всегда можно найти такую систему кодирования, при которой
- 15. Вторая теорема Шеннона Это позволяет определять на приемной стороне канала, какому подмножеству принадлежит искаженная помехами принятая
- 17. Скачать презентацию