ИиОИТ 2019. Лекция 2. Информация и ее свойства_2020 (1)

Содержание

Слайд 2

В основе информации лежат данные.
Данные – это зарегистрированные сообщения или сигналы, которые

В основе информации лежат данные. Данные – это зарегистрированные сообщения или сигналы,
по каким-либо причинам не используются, а только хранятся. В том случае, когда появляется возможность использовать эти данные для уменьшения неопределенности знаний о чем-либо, данные превращаются в информацию.

Слайд 3

Пример.
Номера телефонов, записанные на листе – это просто набор чисел, данные. Если

Пример. Номера телефонов, записанные на листе – это просто набор чисел, данные.
снабдить эти данные фамилией абонента, то эти данные превращаются в информацию, т.к. они показывают владельцев телефонов.

Слайд 4

Источниками информации являются объекты или явления, порождающие различные сигналы.
Потребителями информации являются

Источниками информации являются объекты или явления, порождающие различные сигналы. Потребителями информации являются
различные процессы или объекты.
Пути и процессы, обеспечивающие передачу информации от источника к потребителю, называются информационными коммуникациями.

Слайд 5

Действия с информацией

Действия с информацией выполняются путем операций над данными, которые являются

Действия с информацией Действия с информацией выполняются путем операций над данными, которые
носителем информации.
Основные операции над данными:
1. Создание 2. Хранение
3. Обработка 4. Поиск
5. Копирование 6. Передача 7. Прием 8.Разрушение
Разработка технологий выполнения этих операций – одна из важнейших задач информатики.

Слайд 6

Классификация информации.

Классификация информации.

Слайд 7

Входная информация – это информация, которую потребитель информации получает для обработки.
Выходная информация

Входная информация – это информация, которую потребитель информации получает для обработки. Выходная
– это информация, которую потребитель информации выдает во внешнюю среду после обработки. Выходная информация одного потребителя может служить входной для других потребителей.
Внутренняя информация возникает внутри потребителя, внешняя – за его пределами.

Слайд 8

Переменная информация – это информация, которая меняется с определенной периодичностью.
Постоянная информация

Переменная информация – это информация, которая меняется с определенной периодичностью. Постоянная информация
– это информация, остающаяся неизменной некоторый достаточно длительный период времени
Первичная информация – это информация, которая существует перед началом обработки.
Вторичная информация является результатом обработки первичной информации.
Промежуточная информация – это вторичная информация, которая используется для дальнейших расчетов.
Результатная информация – это вторичная информация, которая в дальнейших расчетах не используется.

Слайд 9

Текстовая информация – совокупность алфавитных, цифровых и специальных знаков, с помощью которых

Текстовая информация – совокупность алфавитных, цифровых и специальных знаков, с помощью которых
информация представляется на носителях информации (например, бумаге).
Графическая информация – это различного рода графики, схемы, рисунки и т.п.
Звуковая информация – это набор звуков, воспринимаемых человеком или техническим устройством.

Слайд 10

Классификация по используемым функциям зависит от применения информации в конкретных областях. В

Классификация по используемым функциям зависит от применения информации в конкретных областях. В
социологии и менеджменте, например, широко используется социологическая информация, рекламная, прогнозная и др.
По типу используемых данных информация делится в зависимости от конкретной области, в которой данные возникают и используются. Например, социологическая информация – это совокупность сведений, отражающих социальные процессы и служащих для управления этими процессами и коллективами людей в социальной сфере.
Возможны и другие способы классификации. Например, по способу обработки техническими устройствами информацию можно разделить на цифровую и аналоговую. Цифровая информация обрабатывается как дискретная последовательность сигналов, а аналоговая – как непрерывный сигнал.

Слайд 11

Свойства информации.

Объективность информации означает отсутствие субъективных факторов в процессе получения и обработки

Свойства информации. Объективность информации означает отсутствие субъективных факторов в процессе получения и
информации. Данное свойство характеризует независимость информации от чьего-либо мнения или сознания. Объективную информацию можно получить с помощью каких-либо измерений (например, точными приборами).
Например, информация о том, что автомобиль ехал быстро, не всегда объективна. Информация о том, что автомобиль ехал со скоростью 150 км/ч объективна, если она получена с помощью исправной камеры фиксации скоростного режима.

Слайд 12

Полнота информации определяет достаточность данных для принятия решений или создания новых данных

Полнота информации определяет достаточность данных для принятия решений или создания новых данных
на основе уже имеющихся. О полноте информации можно говорить, когда какая-либо дополнительная информация об объекте будет уже избыточна.
Неполная информация может привести к ошибочным выводам и действиям. Например, сообщение «Температура на улице 10 градусов» без уточнения «тепла» или «мороза» может привести к неправильному выбору человеком верхней одежды.

Слайд 13

Достоверность информации характеризует то, как информация отражает истинное положение дел, степень доверия,

Достоверность информации характеризует то, как информация отражает истинное положение дел, степень доверия,
с которой потребитель информации ее воспринимает. Достоверность информации носит статистический характер и оценивается в определенной шкале. Недостоверная информация может привести к неправильным решениям. Например, недостоверная информация в рекламе может привести к ошибкам при покупке товара.
Достоверная информация со временем может стать недостоверной, так как она может устаревать и не отражать истинное положение дел. Достоверность информации зависит от достоверности источника информации (полностью надёжный, чаще всего надёжный, довольно надёжный и так далее до совершенно ненадёжного и того, чей статус не определён).

Слайд 14

Точность информации определяет степень близости получаемой информации к реальному состоянию объекта, процесса,

Точность информации определяет степень близости получаемой информации к реальному состоянию объекта, процесса,
явления. Например, десятичное число может быть записано с точностью до трех десятичных знаков. В этом случае можно оценить максимально возможную ошибку при использовании этого числа (чем отличается от достоверности? Может ли информация быть достоверной, но неточной?)

Слайд 15

Адекватность информации – это определенный уровень соответствия создаваемого с помощью полученной информации

Адекватность информации – это определенный уровень соответствия создаваемого с помощью полученной информации
образа реальному объекту (чем отличается от достоверности?, может ли быть информация достоверной, но не адекватной?; чем отличается от объективности?).
Доступность информации – мера возможности получить ту или иную информацию в приемлемое время в необходимом виде. Например, секретные документы, хранящиеся в архиве, невозможно получить людям, которым доступ к таким архивам запрещен. В этом случае информация является недоступной.

Слайд 16

Актуальность (своевременность) информации – это степень соответствия информации текущему моменту времени, вовремя

Актуальность (своевременность) информации – это степень соответствия информации текущему моменту времени, вовремя
полученная информация. Например, телеграмма о приезде друзей, полученная своевременно, позволит вовремя их встретить.

Слайд 17

Измерение информации.

Объем данных Vд информации. Измеряется в количестве символов, входящих в данные.

Измерение информации. Объем данных Vд информации. Измеряется в количестве символов, входящих в

Объем данных в ВТ измеряется в битах. Бит – это один символ алфавита, состоящего из двух символов – 0 или 1.
Восемь битов образуют 1б (один байт) . Таким образом, байт – это символ алфавита из 256 символов (почему?).
Более крупные единицы измерения объемов данных:
1 Кб (килобайт)=1024 б=210 байт,
1Мб (Мегабайт)=1024 Кб=220 байт,
1Гб (гигабайт)=1024 Мб =230 байт,
1Тб (терабайт)=1024 Гб=240 байт,
1Пб (петабайт)=1024 Тб=250 байт.

Слайд 18

Количество информации.
Количество информации характеризует степень снижения неопределенности знаний об объекте или событии.
Неопределенность

Количество информации. Количество информации характеризует степень снижения неопределенности знаний об объекте или
знаний характеризуется количеством возможных состояния объекта (возможных результатов некоторого события, например, бросания монеты или кубика)

Слайд 19

H(α) – исходная неопределенность знаний об объекте (событии) α .
Hβ(α) –

H(α) – исходная неопределенность знаний об объекте (событии) α . Hβ(α) –
неопределенность знаний об объекте (событии) после прихода сообщения β
Iβ(α) - количество информации, которое содержится в сообщении β
Iβ(α)=H(α)-Hβ(α)

Слайд 20

Частные случаи
Если H(α)=Hβ(α), то Iβ(α)=0 – β является тривиальным сообщением, не несущим

Частные случаи Если H(α)=Hβ(α), то Iβ(α)=0 – β является тривиальным сообщением, не
информации.
Если Hβ(α)=0, то Iβ(α)=H(α), т.е. количество информации в сообщении β равно исходной неопределенности состояния объекта.

Слайд 21

Понятие вероятности события

Вероятность – это мера возможности наступления некоторого события.
Пусть система может

Понятие вероятности события Вероятность – это мера возможности наступления некоторого события. Пусть
находиться в одном из N состояний, например, пусть существует N различных возможных вариантов какого-либо действия.
Пусть m – количество состояний системы (результатов действия), которые приводят к появлению события A.
Тогда вероятность реализации события А равна
p=m/N

Слайд 22

Пример

Пусть подбрасываются 2 игральные кости. Какова вероятность, того, что выпадет 10 очков.
Общее

Пример Пусть подбрасываются 2 игральные кости. Какова вероятность, того, что выпадет 10
количество вариантов 36, при этом 10 очков дают лишь следующие сочетания результатов бросания: 4+6, 5+5, 6+4, то есть существует 3 варианта, при которых реализуется искомое событие. Тогда вероятность этого события равна p10=3/36=1/12.

Слайд 23

Формула Хартли для равновероятных состояний системы

Пусть система может находиться в одном из

Формула Хартли для равновероятных состояний системы Пусть система может находиться в одном
N равновероятных состояний, тогда до прихода сообщения неопределенность знаний о ней равна (по Р.Хартли)
H(α) =log2N
Пусть после прихода сообщения β количество неопределенных ситуаций уменьшилось и стало равно m. Тогда неопределенность знаний о системе после прихода сообщения стала равна
Hβ(α)=log2m
Отсюда количество информации в сообщении равно
Iβ(α)=H(α)-Hβ(α) или
Iβ(α)=log2N-log2m=log2(N/m)=log2(1/p), где p=m/N – вероятность реализации одной из оставшихся неопределенных ситуаций. Количество информации измеряется в битах.

Слайд 24

Формула Хартли (вероятностный подход к измерению количества информации)

 

Формула Хартли (вероятностный подход к измерению количества информации)

Слайд 25

Пример 1.

В корзине лежат 16 белых и 8 черных шаров. Какое количество

Пример 1. В корзине лежат 16 белых и 8 черных шаров. Какое
информации несет сообщение о том, что из корзины достали черный шар?
Решение.
Общее количество шаров в корзине равно 24, вероятность выбора черного шара равна p=8/24=1/3.
Количество информации в сообщении о том, что из корзины достали черный шар равна
I=log2(1/p)=log23=1,58 (бит)

Слайд 26

Пример 2.

В корзине лежат 16 белых и 8 черных шаров. Какое

Пример 2. В корзине лежат 16 белых и 8 черных шаров. Какое
количество информации несет сообщение о том, что из корзины достали черный шар?
Решение
Общее количество шаров в корзине равно 24 и количество возможных состояний системы, связанной с вытаскиванием шаров, равно 24 и исходная неопределенность H(α) =log224.
После прихода сообщения количество состояний системы уменьшилось до 8, поскольку стало известно, что из корзины достали черный шар (но неизвестно – какой!). Неопределенность системы стала равной Hβ(α)=log28.
Отсюда количество информации в сообщении равно
Iβ(α)=log224-log28=log2(24/8)=log2(3)=1,58 (бит) – совпадает с примером 1.

Слайд 27

Пример 3

В корзине лежат 16 шаров, все разного цвета. Какое количество информации

Пример 3 В корзине лежат 16 шаров, все разного цвета. Какое количество
несет сообщение о том, что из корзины достали черный шар?
Решение.
Поскольку выбор каждого шара равновероятен, то
I=log216=4 (бита)

Слайд 28

Пример 4

В корзине лежат белые и черные шары. Среди них 18 черных

Пример 4 В корзине лежат белые и черные шары. Среди них 18
шаров. Сообщение о том, что из корзины достали белый шар, несет 2 бита информации. Сколько всего в корзине шаров?
Решение.
Пусть Кб – количество белых шаров в корзине. Тогда общее количество шаров в корзине равно 18+Kб и вероятность того, что из корзины достали белый шар, равна
P= Кб /(18+ Kб), и 1/P= (18+ Kб)/ Кб
Количество информации в сообщении о том, что из корзины достали белый шар, равно по формуле Хартли
I=log2(1/P)=log2((18+ Kб)/ Кб)
По условию I=2. Замечая, что log24=2, имеем (18+ Kб)/ Кб =4.
Отсюда Кб=6, и общее количество шаров в корзине равно 18+6=24.

Слайд 29

Смысл формулы Хартли при вероятностном подходе к измерению количества информации

Пусть имеется N

Смысл формулы Хартли при вероятностном подходе к измерению количества информации Пусть имеется
равнозначных предметов. Тогда количество информации, получаемое при равновероятном выборе одного предмета из N равнозначных, равно
I=log2N.
.

Слайд 30

Формула К.Шеннона

 

Формула К.Шеннона

Слайд 31

Пример 5 (формула Шеннона)

В корзине лежат 16 белых и 8 черных шаров.

Пример 5 (формула Шеннона) В корзине лежат 16 белых и 8 черных
Какое количество информации несет сообщение о том, что из корзины достали шар?
Решение.
Общее количество шаров в корзине равно 24, вероятность достать белый шар равна p1=16/24=2/3, вероятность достать черный шар равна p2=8/24=1/3. Тогда
I=-(2/3*log2(2/3)+1/3*log2(1/3))=(-2/3*(-0,585)+1/3*(-1,585))=0,918 (бит)

Слайд 32

Алфавитный подход к измерению информации

Позволяет определить количество информации, заключенной в тексте, записанном

Алфавитный подход к измерению информации Позволяет определить количество информации, заключенной в тексте,
с помощью символов некоторого алфавита.
Применяется при определении количества информации, передаваемой по каналам связи, а также для оценки объемов информации на носителях данных.
Пусть имеется алфавит, использующий m символов для написания сообщений.
Лемма.
Число различных сообщений длины n, которые могут быть составлены из символов данного алфавита, равно N=mn .
Например, количество двоичных чисел (т.е.сообщений из алфавита из двух символов – 0 и 1) длины n равно N=2n

Слайд 33

Пусть пришло сообщение длиной n. Неопределенность системы перед приходом сообщения равна H(α)=log2(mn).

Пусть пришло сообщение длиной n. Неопределенность системы перед приходом сообщения равна H(α)=log2(mn).

Поскольку после прихода сообщения неопределенность о системе снимается (известно, какое конкретно пришло сообщение), то Hβ(α)=0 и
Iβ(α)= H(α)=log2(mn)=nlog2(m).
Если m=2, то Iβ(α)=n, т.е. количество информации в двоичной последовательности равно длине

Слайд 34

Пример

Пусть имеется последовательность длиной 8 бит из символов 0 и 1.
β=(11000110).
Здесь m=2,

Пример Пусть имеется последовательность длиной 8 бит из символов 0 и 1.
n=8, тогда Iβ(α)=8 бит
Таким образом, количество информации в двоичной последовательности совпадает с объемом данных в этой последовательности.

Слайд 35

Смысл формулы Хартли при алфавитном подходе к измерению количества информации

Если n=1, то

Смысл формулы Хартли при алфавитном подходе к измерению количества информации Если n=1,
I=log2m.
Таким образом I=log2m - это то количество информации, которое несет в себе один символ алфавита из m символов
Очевидно, что log22=1 (бит).
Тогда 1 бит – это количество информации, которое несет в себе сообщение из 1 символа в алфавите из 2-х символов.