Слайд 2
В основе информации лежат данные.
Данные – это зарегистрированные сообщения или сигналы, которые
![В основе информации лежат данные. Данные – это зарегистрированные сообщения или сигналы,](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/1153795/slide-1.jpg)
по каким-либо причинам не используются, а только хранятся. В том случае, когда появляется возможность использовать эти данные для уменьшения неопределенности знаний о чем-либо, данные превращаются в информацию.
Слайд 3Пример.
Номера телефонов, записанные на листе – это просто набор чисел, данные. Если
![Пример. Номера телефонов, записанные на листе – это просто набор чисел, данные.](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/1153795/slide-2.jpg)
снабдить эти данные фамилией абонента, то эти данные превращаются в информацию, т.к. они показывают владельцев телефонов.
Слайд 4Источниками информации являются объекты или явления, порождающие различные сигналы.
Потребителями информации являются
![Источниками информации являются объекты или явления, порождающие различные сигналы. Потребителями информации являются](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/1153795/slide-3.jpg)
различные процессы или объекты.
Пути и процессы, обеспечивающие передачу информации от источника к потребителю, называются информационными коммуникациями.
Слайд 5Действия с информацией
Действия с информацией выполняются путем операций над данными, которые являются
![Действия с информацией Действия с информацией выполняются путем операций над данными, которые](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/1153795/slide-4.jpg)
носителем информации.
Основные операции над данными:
1. Создание 2. Хранение
3. Обработка 4. Поиск
5. Копирование 6. Передача 7. Прием 8.Разрушение
Разработка технологий выполнения этих операций – одна из важнейших задач информатики.
Слайд 7Входная информация – это информация, которую потребитель информации получает для обработки.
Выходная информация
![Входная информация – это информация, которую потребитель информации получает для обработки. Выходная](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/1153795/slide-6.jpg)
– это информация, которую потребитель информации выдает во внешнюю среду после обработки. Выходная информация одного потребителя может служить входной для других потребителей.
Внутренняя информация возникает внутри потребителя, внешняя – за его пределами.
Слайд 8Переменная информация – это информация, которая меняется с определенной периодичностью.
Постоянная информация
![Переменная информация – это информация, которая меняется с определенной периодичностью. Постоянная информация](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/1153795/slide-7.jpg)
– это информация, остающаяся неизменной некоторый достаточно длительный период времени
Первичная информация – это информация, которая существует перед началом обработки.
Вторичная информация является результатом обработки первичной информации.
Промежуточная информация – это вторичная информация, которая используется для дальнейших расчетов.
Результатная информация – это вторичная информация, которая в дальнейших расчетах не используется.
Слайд 9Текстовая информация – совокупность алфавитных, цифровых и специальных знаков, с помощью которых
![Текстовая информация – совокупность алфавитных, цифровых и специальных знаков, с помощью которых](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/1153795/slide-8.jpg)
информация представляется на носителях информации (например, бумаге).
Графическая информация – это различного рода графики, схемы, рисунки и т.п.
Звуковая информация – это набор звуков, воспринимаемых человеком или техническим устройством.
Слайд 10Классификация по используемым функциям зависит от применения информации в конкретных областях. В
![Классификация по используемым функциям зависит от применения информации в конкретных областях. В](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/1153795/slide-9.jpg)
социологии и менеджменте, например, широко используется социологическая информация, рекламная, прогнозная и др.
По типу используемых данных информация делится в зависимости от конкретной области, в которой данные возникают и используются. Например, социологическая информация – это совокупность сведений, отражающих социальные процессы и служащих для управления этими процессами и коллективами людей в социальной сфере.
Возможны и другие способы классификации. Например, по способу обработки техническими устройствами информацию можно разделить на цифровую и аналоговую. Цифровая информация обрабатывается как дискретная последовательность сигналов, а аналоговая – как непрерывный сигнал.
Слайд 11Свойства информации.
Объективность информации означает отсутствие субъективных факторов в процессе получения и обработки
![Свойства информации. Объективность информации означает отсутствие субъективных факторов в процессе получения и](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/1153795/slide-10.jpg)
информации. Данное свойство характеризует независимость информации от чьего-либо мнения или сознания. Объективную информацию можно получить с помощью каких-либо измерений (например, точными приборами).
Например, информация о том, что автомобиль ехал быстро, не всегда объективна. Информация о том, что автомобиль ехал со скоростью 150 км/ч объективна, если она получена с помощью исправной камеры фиксации скоростного режима.
Слайд 12Полнота информации определяет достаточность данных для принятия решений или создания новых данных
![Полнота информации определяет достаточность данных для принятия решений или создания новых данных](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/1153795/slide-11.jpg)
на основе уже имеющихся. О полноте информации можно говорить, когда какая-либо дополнительная информация об объекте будет уже избыточна.
Неполная информация может привести к ошибочным выводам и действиям. Например, сообщение «Температура на улице 10 градусов» без уточнения «тепла» или «мороза» может привести к неправильному выбору человеком верхней одежды.
Слайд 13Достоверность информации характеризует то, как информация отражает истинное положение дел, степень доверия,
![Достоверность информации характеризует то, как информация отражает истинное положение дел, степень доверия,](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/1153795/slide-12.jpg)
с которой потребитель информации ее воспринимает. Достоверность информации носит статистический характер и оценивается в определенной шкале. Недостоверная информация может привести к неправильным решениям. Например, недостоверная информация в рекламе может привести к ошибкам при покупке товара.
Достоверная информация со временем может стать недостоверной, так как она может устаревать и не отражать истинное положение дел. Достоверность информации зависит от достоверности источника информации (полностью надёжный, чаще всего надёжный, довольно надёжный и так далее до совершенно ненадёжного и того, чей статус не определён).
Слайд 14Точность информации определяет степень близости получаемой информации к реальному состоянию объекта, процесса,
![Точность информации определяет степень близости получаемой информации к реальному состоянию объекта, процесса,](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/1153795/slide-13.jpg)
явления. Например, десятичное число может быть записано с точностью до трех десятичных знаков. В этом случае можно оценить максимально возможную ошибку при использовании этого числа (чем отличается от достоверности? Может ли информация быть достоверной, но неточной?)
Слайд 15Адекватность информации – это определенный уровень соответствия создаваемого с помощью полученной информации
![Адекватность информации – это определенный уровень соответствия создаваемого с помощью полученной информации](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/1153795/slide-14.jpg)
образа реальному объекту (чем отличается от достоверности?, может ли быть информация достоверной, но не адекватной?; чем отличается от объективности?).
Доступность информации – мера возможности получить ту или иную информацию в приемлемое время в необходимом виде. Например, секретные документы, хранящиеся в архиве, невозможно получить людям, которым доступ к таким архивам запрещен. В этом случае информация является недоступной.
Слайд 16
Актуальность (своевременность) информации – это степень соответствия информации текущему моменту времени, вовремя
![Актуальность (своевременность) информации – это степень соответствия информации текущему моменту времени, вовремя](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/1153795/slide-15.jpg)
полученная информация. Например, телеграмма о приезде друзей, полученная своевременно, позволит вовремя их встретить.
Слайд 17Измерение информации.
Объем данных Vд информации. Измеряется в количестве символов, входящих в данные.
![Измерение информации. Объем данных Vд информации. Измеряется в количестве символов, входящих в](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/1153795/slide-16.jpg)
Объем данных в ВТ измеряется в битах. Бит – это один символ алфавита, состоящего из двух символов – 0 или 1.
Восемь битов образуют 1б (один байт) . Таким образом, байт – это символ алфавита из 256 символов (почему?).
Более крупные единицы измерения объемов данных:
1 Кб (килобайт)=1024 б=210 байт,
1Мб (Мегабайт)=1024 Кб=220 байт,
1Гб (гигабайт)=1024 Мб =230 байт,
1Тб (терабайт)=1024 Гб=240 байт,
1Пб (петабайт)=1024 Тб=250 байт.
Слайд 18Количество информации.
Количество информации характеризует степень снижения неопределенности знаний об объекте или событии.
Неопределенность
![Количество информации. Количество информации характеризует степень снижения неопределенности знаний об объекте или](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/1153795/slide-17.jpg)
знаний характеризуется количеством возможных состояния объекта (возможных результатов некоторого события, например, бросания монеты или кубика)
Слайд 19H(α) – исходная неопределенность знаний об объекте (событии) α .
Hβ(α) –
![H(α) – исходная неопределенность знаний об объекте (событии) α . Hβ(α) –](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/1153795/slide-18.jpg)
неопределенность знаний об объекте (событии) после прихода сообщения β
Iβ(α) - количество информации, которое содержится в сообщении β
Iβ(α)=H(α)-Hβ(α)
Слайд 20Частные случаи
Если H(α)=Hβ(α), то Iβ(α)=0 – β является тривиальным сообщением, не несущим
![Частные случаи Если H(α)=Hβ(α), то Iβ(α)=0 – β является тривиальным сообщением, не](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/1153795/slide-19.jpg)
информации.
Если Hβ(α)=0, то Iβ(α)=H(α), т.е. количество информации в сообщении β равно исходной неопределенности состояния объекта.
Слайд 21Понятие вероятности события
Вероятность – это мера возможности наступления некоторого события.
Пусть система может
![Понятие вероятности события Вероятность – это мера возможности наступления некоторого события. Пусть](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/1153795/slide-20.jpg)
находиться в одном из N состояний, например, пусть существует N различных возможных вариантов какого-либо действия.
Пусть m – количество состояний системы (результатов действия), которые приводят к появлению события A.
Тогда вероятность реализации события А равна
p=m/N
Слайд 22Пример
Пусть подбрасываются 2 игральные кости. Какова вероятность, того, что выпадет 10 очков.
Общее
![Пример Пусть подбрасываются 2 игральные кости. Какова вероятность, того, что выпадет 10](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/1153795/slide-21.jpg)
количество вариантов 36, при этом 10 очков дают лишь следующие сочетания результатов бросания: 4+6, 5+5, 6+4, то есть существует 3 варианта, при которых реализуется искомое событие. Тогда вероятность этого события равна p10=3/36=1/12.
Слайд 23Формула Хартли для равновероятных состояний системы
Пусть система может находиться в одном из
![Формула Хартли для равновероятных состояний системы Пусть система может находиться в одном](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/1153795/slide-22.jpg)
N равновероятных состояний, тогда до прихода сообщения неопределенность знаний о ней равна (по Р.Хартли)
H(α) =log2N
Пусть после прихода сообщения β количество неопределенных ситуаций уменьшилось и стало равно m. Тогда неопределенность знаний о системе после прихода сообщения стала равна
Hβ(α)=log2m
Отсюда количество информации в сообщении равно
Iβ(α)=H(α)-Hβ(α) или
Iβ(α)=log2N-log2m=log2(N/m)=log2(1/p), где p=m/N – вероятность реализации одной из оставшихся неопределенных ситуаций. Количество информации измеряется в битах.
Слайд 24Формула Хартли (вероятностный подход к измерению количества информации)
![Формула Хартли (вероятностный подход к измерению количества информации)](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/1153795/slide-23.jpg)
Слайд 25Пример 1.
В корзине лежат 16 белых и 8 черных шаров. Какое количество
![Пример 1. В корзине лежат 16 белых и 8 черных шаров. Какое](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/1153795/slide-24.jpg)
информации несет сообщение о том, что из корзины достали черный шар?
Решение.
Общее количество шаров в корзине равно 24, вероятность выбора черного шара равна p=8/24=1/3.
Количество информации в сообщении о том, что из корзины достали черный шар равна
I=log2(1/p)=log23=1,58 (бит)
Слайд 26Пример 2.
В корзине лежат 16 белых и 8 черных шаров. Какое
![Пример 2. В корзине лежат 16 белых и 8 черных шаров. Какое](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/1153795/slide-25.jpg)
количество информации несет сообщение о том, что из корзины достали черный шар?
Решение
Общее количество шаров в корзине равно 24 и количество возможных состояний системы, связанной с вытаскиванием шаров, равно 24 и исходная неопределенность H(α) =log224.
После прихода сообщения количество состояний системы уменьшилось до 8, поскольку стало известно, что из корзины достали черный шар (но неизвестно – какой!). Неопределенность системы стала равной Hβ(α)=log28.
Отсюда количество информации в сообщении равно
Iβ(α)=log224-log28=log2(24/8)=log2(3)=1,58 (бит) – совпадает с примером 1.
Слайд 27Пример 3
В корзине лежат 16 шаров, все разного цвета. Какое количество информации
![Пример 3 В корзине лежат 16 шаров, все разного цвета. Какое количество](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/1153795/slide-26.jpg)
несет сообщение о том, что из корзины достали черный шар?
Решение.
Поскольку выбор каждого шара равновероятен, то
I=log216=4 (бита)
Слайд 28Пример 4
В корзине лежат белые и черные шары. Среди них 18 черных
![Пример 4 В корзине лежат белые и черные шары. Среди них 18](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/1153795/slide-27.jpg)
шаров. Сообщение о том, что из корзины достали белый шар, несет 2 бита информации. Сколько всего в корзине шаров?
Решение.
Пусть Кб – количество белых шаров в корзине. Тогда общее количество шаров в корзине равно 18+Kб и вероятность того, что из корзины достали белый шар, равна
P= Кб /(18+ Kб), и 1/P= (18+ Kб)/ Кб
Количество информации в сообщении о том, что из корзины достали белый шар, равно по формуле Хартли
I=log2(1/P)=log2((18+ Kб)/ Кб)
По условию I=2. Замечая, что log24=2, имеем (18+ Kб)/ Кб =4.
Отсюда Кб=6, и общее количество шаров в корзине равно 18+6=24.
Слайд 29Смысл формулы Хартли при вероятностном подходе к измерению количества информации
Пусть имеется N
![Смысл формулы Хартли при вероятностном подходе к измерению количества информации Пусть имеется](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/1153795/slide-28.jpg)
равнозначных предметов. Тогда количество информации, получаемое при равновероятном выборе одного предмета из N равнозначных, равно
I=log2N.
.
Слайд 31Пример 5 (формула Шеннона)
В корзине лежат 16 белых и 8 черных шаров.
![Пример 5 (формула Шеннона) В корзине лежат 16 белых и 8 черных](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/1153795/slide-30.jpg)
Какое количество информации несет сообщение о том, что из корзины достали шар?
Решение.
Общее количество шаров в корзине равно 24, вероятность достать белый шар равна p1=16/24=2/3, вероятность достать черный шар равна p2=8/24=1/3. Тогда
I=-(2/3*log2(2/3)+1/3*log2(1/3))=(-2/3*(-0,585)+1/3*(-1,585))=0,918 (бит)
Слайд 32Алфавитный подход к измерению информации
Позволяет определить количество информации, заключенной в тексте, записанном
![Алфавитный подход к измерению информации Позволяет определить количество информации, заключенной в тексте,](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/1153795/slide-31.jpg)
с помощью символов некоторого алфавита.
Применяется при определении количества информации, передаваемой по каналам связи, а также для оценки объемов информации на носителях данных.
Пусть имеется алфавит, использующий m символов для написания сообщений.
Лемма.
Число различных сообщений длины n, которые могут быть составлены из символов данного алфавита, равно N=mn .
Например, количество двоичных чисел (т.е.сообщений из алфавита из двух символов – 0 и 1) длины n равно N=2n
Слайд 33Пусть пришло сообщение длиной n. Неопределенность системы перед приходом сообщения равна H(α)=log2(mn).
![Пусть пришло сообщение длиной n. Неопределенность системы перед приходом сообщения равна H(α)=log2(mn).](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/1153795/slide-32.jpg)
Поскольку после прихода сообщения неопределенность о системе снимается (известно, какое конкретно пришло сообщение), то Hβ(α)=0 и
Iβ(α)= H(α)=log2(mn)=nlog2(m).
Если m=2, то Iβ(α)=n, т.е. количество информации в двоичной последовательности равно длине
Слайд 34Пример
Пусть имеется последовательность длиной 8 бит из символов 0 и 1.
β=(11000110).
Здесь m=2,
![Пример Пусть имеется последовательность длиной 8 бит из символов 0 и 1.](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/1153795/slide-33.jpg)
n=8, тогда Iβ(α)=8 бит
Таким образом, количество информации в двоичной последовательности совпадает с объемом данных в этой последовательности.
Слайд 35Смысл формулы Хартли при алфавитном подходе к измерению количества информации
Если n=1, то
![Смысл формулы Хартли при алфавитном подходе к измерению количества информации Если n=1,](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/1153795/slide-34.jpg)
I=log2m.
Таким образом I=log2m - это то количество информации, которое несет в себе один символ алфавита из m символов
Очевидно, что log22=1 (бит).
Тогда 1 бит – это количество информации, которое несет в себе сообщение из 1 символа в алфавите из 2-х символов.