Содержание
- 2. В основе информации лежат данные. Данные – это зарегистрированные сообщения или сигналы, которые по каким-либо причинам
- 3. Пример. Номера телефонов, записанные на листе – это просто набор чисел, данные. Если снабдить эти данные
- 4. Источниками информации являются объекты или явления, порождающие различные сигналы. Потребителями информации являются различные процессы или объекты.
- 5. Действия с информацией Действия с информацией выполняются путем операций над данными, которые являются носителем информации. Основные
- 6. Классификация информации.
- 7. Входная информация – это информация, которую потребитель информации получает для обработки. Выходная информация – это информация,
- 8. Переменная информация – это информация, которая меняется с определенной периодичностью. Постоянная информация – это информация, остающаяся
- 9. Текстовая информация – совокупность алфавитных, цифровых и специальных знаков, с помощью которых информация представляется на носителях
- 10. Классификация по используемым функциям зависит от применения информации в конкретных областях. В социологии и менеджменте, например,
- 11. Свойства информации. Объективность информации означает отсутствие субъективных факторов в процессе получения и обработки информации. Данное свойство
- 12. Полнота информации определяет достаточность данных для принятия решений или создания новых данных на основе уже имеющихся.
- 13. Достоверность информации характеризует то, как информация отражает истинное положение дел, степень доверия, с которой потребитель информации
- 14. Точность информации определяет степень близости получаемой информации к реальному состоянию объекта, процесса, явления. Например, десятичное число
- 15. Адекватность информации – это определенный уровень соответствия создаваемого с помощью полученной информации образа реальному объекту (чем
- 16. Актуальность (своевременность) информации – это степень соответствия информации текущему моменту времени, вовремя полученная информация. Например, телеграмма
- 17. Измерение информации. Объем данных Vд информации. Измеряется в количестве символов, входящих в данные. Объем данных в
- 18. Количество информации. Количество информации характеризует степень снижения неопределенности знаний об объекте или событии. Неопределенность знаний характеризуется
- 19. H(α) – исходная неопределенность знаний об объекте (событии) α . Hβ(α) – неопределенность знаний об объекте
- 20. Частные случаи Если H(α)=Hβ(α), то Iβ(α)=0 – β является тривиальным сообщением, не несущим информации. Если Hβ(α)=0,
- 21. Понятие вероятности события Вероятность – это мера возможности наступления некоторого события. Пусть система может находиться в
- 22. Пример Пусть подбрасываются 2 игральные кости. Какова вероятность, того, что выпадет 10 очков. Общее количество вариантов
- 23. Формула Хартли для равновероятных состояний системы Пусть система может находиться в одном из N равновероятных состояний,
- 24. Формула Хартли (вероятностный подход к измерению количества информации)
- 25. Пример 1. В корзине лежат 16 белых и 8 черных шаров. Какое количество информации несет сообщение
- 26. Пример 2. В корзине лежат 16 белых и 8 черных шаров. Какое количество информации несет сообщение
- 27. Пример 3 В корзине лежат 16 шаров, все разного цвета. Какое количество информации несет сообщение о
- 28. Пример 4 В корзине лежат белые и черные шары. Среди них 18 черных шаров. Сообщение о
- 29. Смысл формулы Хартли при вероятностном подходе к измерению количества информации Пусть имеется N равнозначных предметов. Тогда
- 30. Формула К.Шеннона
- 31. Пример 5 (формула Шеннона) В корзине лежат 16 белых и 8 черных шаров. Какое количество информации
- 32. Алфавитный подход к измерению информации Позволяет определить количество информации, заключенной в тексте, записанном с помощью символов
- 33. Пусть пришло сообщение длиной n. Неопределенность системы перед приходом сообщения равна H(α)=log2(mn). Поскольку после прихода сообщения
- 34. Пример Пусть имеется последовательность длиной 8 бит из символов 0 и 1. β=(11000110). Здесь m=2, n=8,
- 35. Смысл формулы Хартли при алфавитном подходе к измерению количества информации Если n=1, то I=log2m. Таким образом
- 37. Скачать презентацию