Лекция 2а для СР

Содержание

Слайд 2

Учебные вопросы:
Определение понятия Информация
Представление и измерение информации
Классификация информации
Методы получения информации

Учебные вопросы: Определение понятия Информация Представление и измерение информации Классификация информации Методы получения информации

Слайд 3

Информация - это настолько общее и глубокое понятие, что его нельзя

Информация - это настолько общее и глубокое понятие, что его нельзя объяснить
объяснить одной фразой. В это слово вкладывается различный смысл в технике, науке и в житейских ситуациях.
Термин "информация" происходит от латинского слова "informatio", что означает сведения, разъяснения, изложение.

Определение понятия Информация

Слайд 4

Понятие «информация» имеет различные трактовки в разных предметных областях.
Понятие информации – одно

Понятие «информация» имеет различные трактовки в разных предметных областях. Понятие информации –
из фундаментальных понятий информатики:
- абстракция, абстрактная модель рассматриваемой системы (в математике);
- сигналы для управления, приспособления рассматриваемой системы (в кибернетике);
- мера хаоса в рассматриваемой системе (в термодинамике);
- вероятность выбора в рассматриваемой системе (в теории вероятностей);
- мера разнообразия в рассматриваемой системе (в биологии) и др.


Слайд 5

В обиходе информацией называют любые данные
или сведения, которые кого-либо интересуют.
Информация - сведения

В обиходе информацией называют любые данные или сведения, которые кого-либо интересуют. Информация
об объектах и явлениях
окружающей среды, их параметрах, свойствах и
состоянии, которые воспринимают информационные
системы (живые организмы, управляющие машины и
др.) в процессе жизнедеятельности и работы.
Информация - это общенаучное понятие включающие, обмен сведениями между людьми, человеком и автоматом, обмен сигналами в животном и растительном мире (передача признаков от клетки к клетке, от организма к организму).

Слайд 6

Более узкое определение дается в технике, где это
понятие информация включает в себя

Более узкое определение дается в технике, где это понятие информация включает в
все сведения, являющиеся объектом хранения, передачи и преобразования.

С понятием информации связаны такие понятия как сигнал, сообщение и данные.
Сигнал представляет собой любой процесс, несущий информацию.
Сообщение - это информация, представленная в определенной форме и предназначенная для передачи.
Данные - это информация, представленная в формализованном виде и предназначенная для обработки ее техническими средствами, например ЭВМ.

Слайд 7

Одно и то же информационное сообщение (статья в газете, объявление, письмо, телеграмма,

Одно и то же информационное сообщение (статья в газете, объявление, письмо, телеграмма,
справка, рассказ, чертёж, радиопередача и т.п.) может содержать разное количество информации для разных людей - в зависимости от их предшествующих знаний, от уровня понимания этого сообщения и интереса к нему.

Так, сообщение, составленное на японском языке, не несёт никакой новой информации человеку, не знающему этого языка, но может быть высоко информативным для человека, владеющего японским.
Никакой новой информации не содержит и сообщение, изложенное на знакомом языке, если его содержание непонятно или уже известно.

Слайд 8

Связь информации и сообщения
Информация – содержание сообщения, сообщение – форма информации.
Информация

Связь информации и сообщения Информация – содержание сообщения, сообщение – форма информации.
– это некоторая упорядоченная
последовательность сообщений, отражающих,
передающих и увеличивающих наши знания.

Информация есть характеристика не сообщения, а соотношения между сообщением и его потребителем.
Без наличия потребителя, хотя бы потенциального, говорить об информации бессмысленно.

Слайд 9

Представление информации в компьютере.
Единицы измерения информации

Компьютер может обрабатывать только информацию, представленную в

Представление информации в компьютере. Единицы измерения информации Компьютер может обрабатывать только информацию,
числовой форме.
Вся другая информация для обработки на компьютере должна быть преобразована в числовую форму.

Слайд 10

Единицы измерения информации
Бит - единица информации, представляющая собой двоичный разряд, который может

Единицы измерения информации Бит - единица информации, представляющая собой двоичный разряд, который
принимать значение 0 или 1.
Байт - восемь последовательных битов. В одном
байте можно кодировать значение одного символа из 256 возможных (256 = 28).
Более крупными единицами информации
являются следующие: 1 Кбайт = 210 = 1024 байта;
1 Мбайт = 220 байт = 1024 Кбайта; 1 Гбайт = 230
байта и т. д.

Слайд 11

Количество информации

Содержательный подход
Сообщение, уменьшающее неопределенность знаний в два раза, несет один бит

Количество информации Содержательный подход Сообщение, уменьшающее неопределенность знаний в два раза, несет
информации

Шарик под первыми двумя стаканчиками? - Нет
Шарик под третьим стаканчиком? - Да

Клод Шеннон
(1916 - 2001)

Слайд 12

Количество информации

Алфавитный подход
Каждый символ некоторого сообщения имеет определенный информационный вес – несет

Количество информации Алфавитный подход Каждый символ некоторого сообщения имеет определенный информационный вес
фиксированное количество информации
В двоичном коде каждая двоичная цифра несет одну единицу информации, которая называется один бит

N – мощность алфавита (количество символов в алфавите)

i – информационный вес символа

Слайд 13

Информационный вес символа

Алфавитный подход
В русском алфавите (не считая букву ё) 32 символа.

Информационный вес символа Алфавитный подход В русском алфавите (не считая букву ё)
Определить информационный вес одного символа.

N – количество символов в алфавите
i – информационный вес символа

Слайд 14

Информационный вес символа

Алфавитный подход
В русском алфавите (не считая букву ё) 32 символа.

Информационный вес символа Алфавитный подход В русском алфавите (не считая букву ё)
Определить информационный вес одного символа.

N – количество символов в алфавите
i – информационный вес символа

Ответ: 5 бит.

Слайд 15

Информационный объем сообщения

Алфавитный подход
В русском алфавите (не считая букву ё) 32 символа.

Информационный объем сообщения Алфавитный подход В русском алфавите (не считая букву ё)
Определить информационный объем сообщения «информатика – наука об информации»

Слайд 16

Информационный объем сообщения

Алфавитный подход
В русском алфавите (не считая букву ё) 32 символа.

Информационный объем сообщения Алфавитный подход В русском алфавите (не считая букву ё)
Определить информационный объем сообщения «информатика – наука об информации» (учесть все символы, включая пробел)

Ответ: 204 бит.

Слайд 17

Основные соотношения между единицами
измерения:
1 бит (binary digit – двоичное число) = 0

Основные соотношения между единицами измерения: 1 бит (binary digit – двоичное число)
или 1,
1 байт 8 битов,
1 килобайт (1К) = 210 бит,
1 мегабайт (1М) = 220 бит,
1 гигабайт (1Г) = 230 бит,
1 терабайт (1Т) = 240 бит,
1 петабайт (1П) = 250 бит,
1 эксабайт (1Э) = 260 бит.

Слайд 18

Вопросы

Какое количество информации содержит один разряд двоичного числа?

Как записать число (17)10 в

Вопросы Какое количество информации содержит один разряд двоичного числа? Как записать число
двоичной системе счисления?

Для чего необходима процедура актуализации данных?

Слайд 19

Формальное определение алфавита:

Алфавит - конечное множество различных знаков, символов, для которых определена

Формальное определение алфавита: Алфавит - конечное множество различных знаков, символов, для которых
операция конкатенации (приписывания, присоединения символа к символу или цепочке символов).
С помощью конкатенации по определенным правилам соединения символов и слов можно получать слова (цепочки знаков) и словосочетания (цепочки слов) в этом алфавите (над этим алфавитом).

2. Представление и измерение информации

Слайд 20

Определение буквы - знака
Буквой или знаком называется любой элемент x алфавита X,

Определение буквы - знака Буквой или знаком называется любой элемент x алфавита

где

Понятие знака x неразрывно связано с тем, что им обозначается y («со смыслом»).
Знак x и его смысл y вместе могут рассматриваться как пара элементов (x, y).
Примеры алфавитов: множество из десяти цифр, множество из знаков русского языка, точка и тире в азбуке Морзе и др.
В алфавите цифр знак 5 связан с понятием «быть в количестве пяти элементов».


Слайд 21

Понятие слова
Конечная последовательность букв алфавита называется словом в алфавите (или над алфавитом).
Длиной

Понятие слова Конечная последовательность букв алфавита называется словом в алфавите (или над
|p| некоторого слова p над алфавитом Х называется число составляющих его букв.
Слово (обозначаемое символом Ø) имеющее нулевую длину, называется пустым словом: |Ø| = 0.
Множество различных слов над алфавитом X обозначим через S(X) и назовем словарным запасом (словарем) алфавита (над алфавитом) X.
В отличие от конечного алфавита, словарный запас может быть и бесконечным.

Слайд 22

6

Слова над некоторым заданным алфавитом
определяют сообщения
Пример.
Слова над алфавитом кириллицы:
"Информатика", "инто", "ииии",

6 Слова над некоторым заданным алфавитом определяют сообщения Пример. Слова над алфавитом
"и".
Слова над алфавитом десятичных цифр и знаков арифметических операций:
"1256", "23+78", "35–6+89", "4".
Слова над алфавитом азбуки Морзе:
".", ". . –", "– – –".
В алфавите должен быть определен порядок
следования букв (порядок типа "предыдущий
элемент – последующий элемент"), то есть любой алфавит имеет упорядоченный вид
X = {x1, x2,…, xn} .

Слайд 23

7

Вывод
Таким образом, алфавит должен позволять решать задачу лексикографического (алфавитного) упорядочивания, или задачу

7 Вывод Таким образом, алфавит должен позволять решать задачу лексикографического (алфавитного) упорядочивания,
расположения слов над этим алфавитом, в соответствии с порядком, определенным в алфавите (то есть по символам алфавита).

Слайд 24

3. Классификация информации
Информация по отношению к источнику или приемнику
бывает трех типов: входная,

3. Классификация информации Информация по отношению к источнику или приемнику бывает трех
выходная и внутренняя.
Информация по отношению к конечному результату бывает исходная, промежуточная и результирующая.
Информация по ее изменчивости бывает постоянная,
переменная и смешанная.
Информация по стадии ее использования бывает первичная и вторичная.
Информация по ее полноте бывает избыточная, достаточная и недостаточная.
Информация по доступу к ней бывает открытая и
закрытая.
Есть и другие типы классификации информации.

Слайд 25

Основные свойства информации:
объективность
достоверность;
полнота;
точность;
актуальность;
адекватность;
полезность;
массовость;
устойчивость;
ценность и др.

Основные свойства информации: объективность достоверность; полнота; точность; актуальность; адекватность; полезность; массовость; устойчивость; ценность и др.

Слайд 26

Объективность информации. Объективный – существующий вне и независимо от человеческого сознания. Информация

Объективность информации. Объективный – существующий вне и независимо от человеческого сознания. Информация
– это отражение внешнего объективного мира. Информация объективна, если она не зависит от методов ее фиксации, чьего-либо мнения, суждения. Пример. Сообщение «На улице тепло» несет субъективную информацию, а сообщение «На улице 22°С» – объективную, но с точностью, зависящей от погрешности средства измерения. Объективную информацию можно получить с помощью исправных датчиков, измерительных приборов. Отражаясь в сознании конкретного человека, информация перестает быть объективной, так как, преобразовывается (в большей или меньшей степени) в зависимости от мнения, суждения, опыта, знаний конкретного субъекта.

Слайд 27

Достоверность информации.
Информация достоверна, если она отражает истинное положение дел. Объективная информация

Достоверность информации. Информация достоверна, если она отражает истинное положение дел. Объективная информация
всегда достоверна, но достоверная информация может быть как объективной, так и субъективной. Достоверная информация помогает принять нам правильное решение.
Недостоверной информация может быть по следующим причинам:
- преднамеренное искажение (дезинформация) или непреднамеренное искажение субъективного свойства;
- искажение в результате воздействия помех («испорченный телефон») и недостаточно точных средств ее фиксации.

Слайд 28

Полнота информации. Информацию можно назвать полной, если ее достаточно для понимания и

Полнота информации. Информацию можно назвать полной, если ее достаточно для понимания и
принятия решений. Неполная информация может привести к ошибочному выводу или решению.
Точность информации определяется степенью ее близости к реальному состоянию объекта, процесса, явления и т. п.
Актуальность информации – важность для настоящего времени, злободневность, насущность. Только вовремя полученная информация может быть полезна.
Полезность (ценность) информации. Полезность может быть оценена применительно к нуждам конкретных ее потребителей и оценивается по тем задачам, которые можно решить с ее помощью.

Слайд 29

Количество информации – число, адекватно характеризующее разнообразие (структурированность, определенность, выбор состояний и

Количество информации – число, адекватно характеризующее разнообразие (структурированность, определенность, выбор состояний и
т.д.) в оцениваемой системе.
Количество информации часто оценивается в битах, причем такая оценка может выражаться и в долях битов (так речь идет не об измерении или кодировании сообщений).

Слайд 30

Мера информации – критерий оценки количества информации.
Обычно мера информации задана некоторой
неотрицательной функцией,

Мера информации – критерий оценки количества информации. Обычно мера информации задана некоторой
определенной на
множестве событий и являющейся аддитивной, то есть мера конечного объединения событий
(множеств) равна сумме мер каждого события.

При оценке информации различают три аспекта:
- синтаксический,
- семантический,
- прагматический.

Слайд 32

Мера Р. Хартли
Пусть известны N состояний системы S. Если каждое
состояние системы закодировать

Мера Р. Хартли Пусть известны N состояний системы S. Если каждое состояние
двоичными кодами, то
длину кода d необходимо выбрать так, чтобы число всех
различных комбинаций было бы не меньше, чем N:
2d ≥ N.
Логарифмируя это неравенство, можно записать:
D ≥ log2N.
Наименьшее решение этого неравенства или мера
разнообразия множества состояний системы задается
формулой Р. Хартли:
H = log2N (бит).

Синтаксическиая мера (вероятностный подход)

Слайд 33

Пример
Чтобы определить состояние системы из четырех
возможных состояний, то есть получить некоторую
информацию о

Пример Чтобы определить состояние системы из четырех возможных состояний, то есть получить
системе, необходимо задать 2 вопроса.
Первый вопрос, например: "Номер состояния больше 2?".
Узнав ответ ("да", "нет"), мы увеличиваем суммарную
информацию о системе на 1 бит ( I = log22 ).
Далее необходим еще один уточняющий вопрос, например, при ответе "да": "Состояние – номер 3?". Итак, количество информации равно 2 битам ( I = log24 ).
Если система имеет n различных состояний, то максимальное количество информации равно
I = log2n .

Слайд 34

Если во множестве X = {x1, x2, ..., xn} искать
произвольный элемент, то

Если во множестве X = {x1, x2, ..., xn} искать произвольный элемент,
для его нахождения (по
Хартли) необходимо иметь не менее log2n (единиц)
информации.
Уменьшение Н говорит об уменьшении разнообразия
состояний N системы.
Увеличение Н говорит об увеличении разнообразия
состояний N системы.
Мера Хартли подходит лишь для идеальных, абстрактных систем, так как в реальных системах
состояния системы не одинаково осуществимы (не
равновероятны).

Слайд 35

Мера Шеннона
Для реальных систем используют более
подходящую меру К. Шеннона. Мера Шеннона
оценивает информацию

Мера Шеннона Для реальных систем используют более подходящую меру К. Шеннона. Мера
отвлеченно от ее смысла:
где n – число состояний системы;
рi – вероятность (относительная частота) перехода
системы в i-е состояние, сумма всех pi должна
равняться 1.

Слайд 36


Обозначим величину:
fi = –n*log2pi.
Тогда из формулы К. Шеннона следует, что

Обозначим величину: fi = –n*log2pi. Тогда из формулы К. Шеннона следует, что
количество информации I можно понимать как среднеарифметическое величин fi , то есть величину fi можно интерпретировать как информационное содержание символа алфавита с индексом i и величиной вероятности появления pi этого символа в любом сообщении (слове), передающем информацию.
Пример
Если положение точки в системе из 10 клеток известно, например если точка находится во второй клетке, то есть
рi = 0; i = 1, 3, 4, …, 10; р2 = 1 ,
то тогда получаем количество информации, равное нулю:
I = log21 = 0 .

Слайд 37

Связь энтропии (меры хаоса) и информации
Увеличение меры Шеннона свидетельствует об уменьшении

Связь энтропии (меры хаоса) и информации Увеличение меры Шеннона свидетельствует об уменьшении
энтропии (увеличении порядка) системы;
уменьшение меры Шеннона свидетельствует об увеличении энтропии (увеличении беспорядка) системы.
Положительная сторона формулы Шеннона – ее отвлеченность от смысла информации.
В отличие от формулы Хартли она учитывает различность состояний, что делает ее пригодной для практических вычислений.
Основная отрицательная сторона формулы Шеннона – она не распознает различные состояния системы с одинаковой вероятностью.

,

Слайд 38

Семантическая мера
Характеризует смысловое содержание информации
Sn - тезаурусная мера (совокупность сведений) получателя;

Семантическая мера Характеризует смысловое содержание информации Sn - тезаурусная мера (совокупность сведений)
Ic - семантическое количество информации.

при Sn →0 пользователь не воспринимает, не понимает поступающую информацию;
при Sn → пользователь все знает, и поступающая информация ему не нужна.

Слайд 39

Прагматическая мера
Iп - прагматическое количество информации;
а > 1 ;
P0 -

Прагматическая мера Iп - прагматическое количество информации; а > 1 ; P0
вероятность достижения цели до получения
информации;
P1 - вероятность достижения цели после получения информации.

Слайд 40

4. Методы получения информации
Методы получения информации можно разбить на:
- Эмпирические методы

4. Методы получения информации Методы получения информации можно разбить на: - Эмпирические
или методы получения эмпирических данных.
- Теоретические методы или методы построения различных теорий.
- Эмпирико-теоретические методы (смешанные) или методы построения теорий на основе полученных эмпирических данных об объекте, процессе, явлении.

Слайд 41

Эмпирические методы
Наблюдение – сбор первичной информации об объекте,
процессе, явлении.
Сравнение – обнаружение и

Эмпирические методы Наблюдение – сбор первичной информации об объекте, процессе, явлении. Сравнение
соотнесение общего и
различного.
Измерение – поиск с помощью измерительных приборов
эмпирических фактов.
Эксперимент – преобразование, рассмотрение объекта,
процесса, явления с целью выявления каких-то новых
свойств.
Кроме классических форм их реализации, в последнее время
используются опрос, интервью, тестирование и другие.

Слайд 42

Эмпирико-теоретические методы
Моделирование (простое моделирование)– получение
знания о целом или о

Эмпирико-теоретические методы Моделирование (простое моделирование)– получение знания о целом или о его
его частях с помощью модели или
приборов.
Исторический метод – поиск знаний с использованием
предыстории, реально существовавшей или же мыслимой.
Логический метод – поиск знаний путем воспроизведения
частей, связей или элементов в мышлении.
Макетирование – получение информации по макету,
представлению частей в упрощенном, но целостном виде.
Актуализация – получение информации с помощью
перевода целого или его частей (а следовательно, и
целого) из статического состояния в динамическое
состояние.
Визуализация – получение информации с помощью
наглядного или визуального представления состояний
объекта, процесса, явления.
Мониторинг, деловые игры и ситуации, экспертные оценки, имитация и другие формы.

Слайд 43

Эмпирико-теоретические методы
Абстрагирование – выделение наиболее важных для исследования свойств, сторон исследуемого

Эмпирико-теоретические методы Абстрагирование – выделение наиболее важных для исследования свойств, сторон исследуемого
объекта, процесса, явления и игнорирование несущественных и второстепенных.
Анализ – разъединение целого на части с целью выявления их связей.
Декомпозиция – разъединение целого на части с сохранением их связей с окружением.
Синтез – соединение частей в целое с целью выявления их взаимосвязей.
Композиция — соединение частей целого с сохранением их взаимосвязей с окружением.
Индукция – получение знания о целом по знаниям о частях.
Дедукция – получение знания о частях по знаниям о целом.
Эвристики, использование эвристических процедур – получение знания о целом по знаниям о частях и по наблюдениям, опыту, интуиции, предвидению.

Слайд 44

Теоретические методы
Восхождение от абстрактного к конкретному – получение знаний о целом

Теоретические методы Восхождение от абстрактного к конкретному – получение знаний о целом
или о его частях на основе знаний об абстрактных проявлениях в сознании, в мышлении.
Идеализация – получение знаний о целом или его частях путем представления в мышлении целого или частей, не существующих в действительности.
Формализация – получение знаний о целом или его частях с помощью языков искусственного происхождения (формальное описание, представление).
Аксиоматизация – получение знаний о целом или его частях с помощью некоторых аксиом (не доказываемых в данной теории утверждений) и правил получения из них (и из ранее полученных утверждений) новых верных утверждений.
Виртуализация – получение знаний о целом или его частях с помощью искусственной среды, ситуации.

Слайд 45

Пример. Для построения модели планирования и управления
производством в рамках страны, региона или

Пример. Для построения модели планирования и управления производством в рамках страны, региона
крупной отрасли нужно решить следующие проблемы:
- определить структурные связи, уровни управления и принятия
решений, ресурсы; (наблюдения, сравнения, измерения,
эксперимента, анализа и синтеза, дедукции и индукции,
эвристический, исторический и логический методы, макетирование и
др.);
- определить гипотезы, цели, возможные проблемы планирования;
(наблюдение, сравнение, эксперимент, абстрагирование, анализ,
синтез, дедукция, индукция, эвристический, исторический,
логический и др.);
- конструирование эмпирических моделей; (абстрагирование, анализ,
синтез, индукция, дедукция, формализация, идеализация и др.);
- поиск решения проблемы планирования и просчет различных
вариантов, директив планирования, поиск оптимального решения;
(измерение, сравнение, эксперимент, анализ, синтез, индукция,
дедукция, актуализация, макетирование, визуализация,
виртуализация и др).

Слайд 46

Управление системой
Суть задачи управления системой – отделение ценной
информации от "шумов" (бесполезного, иногда

Управление системой Суть задачи управления системой – отделение ценной информации от "шумов"
даже
вредного для системы возмущения информации) и
выделение информации, которая позволяет этой системе
существовать и развиваться.
Информационная система – это система, в которой
элементы, структура, цель, ресурсы рассматриваются на
информационном уровне (хотя, естественно, имеются и
другие уровни рассмотрения).
Информационная среда – это среда (система и ее окружение) из взаимодействующих информационных систем, включая и информацию, актуализируемую в этих системах.
Имя файла: Лекция-2а-для-СР.pptx
Количество просмотров: 36
Количество скачиваний: 0