Передача информации и сообщения

Содержание

Слайд 2

Передача и обработка информации

радиоволны (беспроводные линии
радиосвязи) и свет(оптические
лазерные и световолоконные

Передача и обработка информации радиоволны (беспроводные линии радиосвязи) и свет(оптические лазерные и
линии
связи)

проводные линии связи

Слайд 3

Базовые составляющие программирования

наложение сообщений
на тот или иной носитель
информации

аналоговые
(непрерывные)

Базовые составляющие программирования наложение сообщений на тот или иной носитель информации аналоговые (непрерывные)

Слайд 4

u(t) = Uм ⋅sin(ω⋅t+ϕ), где Uм – амплитуда синусоидального сигнала,

Аналоговые сигналы

u(t) = Uм ⋅sin(ω⋅t+ϕ), где Uм – амплитуда синусоидального сигнала, Аналоговые сигналы
характеризуется плавным и непрерывным
изменением их параметров (величины электрического тока или
напряжения для электрических сигналов.
ω - круговая частота и ϕ – фаза
Круговая частота связана с обычной частотой выражением
ω = 2⋅π⋅f = 2⋅π/T.
Частота f - это число периодов T синусоидального сигнала в единицу времени (секунду или с). Она измеряется в герцах (Гц). Один Герц это один период колебаний в секунду.
Фундаментальное значение синусоидального сигнала состоит в том,
что этот сигнал является стационарным. Это значит, что его параметры Uм
, ω и ϕ являются постоянными величинами. Этот сигнал определен во
времени в пределах от –∞ до +∞. Он периодический u(t)= u(t+T) и симметричный u(t)=- u(-t).

Слайд 6


Дискретные и цифровые сигналы
Дискретные сигналы - это сигналы, которые можно представить

Дискретные и цифровые сигналы Дискретные сигналы - это сигналы, которые можно представить
дискретными уровнями их параметров. Пример: выключатель света в вашей комнате может быть либо только включенным, либо только выключенным. Сигнал о его состоянии будет дискретным и двоичным. Если этих уровней много, можно говорить о цифровом представлении информации.
Сигналы, мгновенные значения которых представлены числами, принято называть цифровыми сигналами.
Аналоговый сигнал можно квантовать, т. е. представлять его рядом ступенек, высота которых задается уровнем сигнала в начале каждой ступеньки (в момент выборки) и остается неизменной на протяжении каждой ступеньки

Слайд 7


Дискретные и цифровые сигналы

Рис. Квантование электрического сигнала синусоидальной формы

Рис. Аналоговый сигнал

Дискретные и цифровые сигналы Рис. Квантование электрического сигнала синусоидальной формы Рис. Аналоговый
произвольного вида и его выборки

Слайд 8


Дискретные и цифровые сигналы

В общем случае производят выборку (вырезку) сигналов в

Дискретные и цифровые сигналы В общем случае производят выборку (вырезку) сигналов в
определенные моменты времени (рис. выше). Они могут равномерно или неравномерно отстоять друг от друга. Выборку электрических сигналов и их представление в виде чисел или кодов конечной разрядности выполняют так называемые аналого-цифровые преобразователи - АЦП.
В результате на выходе АЦП мы имеем дискретный сигнал, представленный потоком чисел (кодов). Главные показатели АЦП - это их разрядность (число уровней квантования, обычно выражаемое в двоичном виде) и скорость выполнения преобразований (число операций в сек.).
Обратное преобразование цифровой информации в аналоговую выполняют цифро-аналоговые преобразователи – ЦАП. Для наиболее распространенных электрических сигналов АЦП и ЦАП выпускаются в виде больших интегральных микросхем.

Слайд 9


Дискретные и цифровые сигналы

Преобразование аналоговой информации в цифровую позволяет использовать мощные

Дискретные и цифровые сигналы Преобразование аналоговой информации в цифровую позволяет использовать мощные
средства компьютерной обработки информации. Например, информация может сжиматься для сокращения ее объема или кодироваться для повышения помехоустойчивости. Возможна цифровая обработка сигналов специальными цифровыми сигнальными процессора-ми DSP (Digital Signal Processor) для создания различных звуковых эффектов.
Голосовое управление компьютером, сканирование и распознавание печатных текстов стало уже вполне обыденной задачей, как и их звуковое воспроизведение компьютером. К примеру, компьютерный переводчик Magic не только переводит тексты с одного языка на другой (и наоборот), но и произносит их вслух. Выпущено уже множество таких переводчиков в виде миниатюрных аппаратов.

Слайд 10


Понятие о теореме Котельникова

Как часто надо делать равномерные выборки произвольного сигнала,

Понятие о теореме Котельникова Как часто надо делать равномерные выборки произвольного сигнала,
чтобы после преобразования в цифровую форму, а затем снова в аналоговую была сохранена форма сигнала?
Ответ на этот важный вопрос дает теорема об отсчетах или теорема Котельникова (за рубежом Найквиста): «Если спектр сигнала e(t) ограничен высшей частотой fв, то он без потери информации может быть представлен дискретными отсчетами с числом, равным 2⋅ fв». При этом сигнал восстанавливается по его отсчетам e(k⋅dt) с помощью фильтра низких частот, реализующего восстановление по формуле:

Слайд 11


Формы адекватности информации

. Различают три формы адекватности информации:
синтаксическая, отражающая формально-структурные свойства

Формы адекватности информации . Различают три формы адекватности информации: синтаксическая, отражающая формально-структурные
ин-формации без учета ее смыслового содержания
семантическая (смысловая), отражающая смысл информации и позволяющая судить о соответствии информационного образа объекта и самим объектом;
прагматическая (потребительская) ценность информации для тех целей, ради которых она используется.

Слайд 12


Синтаксическая мера информации – бит и байт

Синтаксическая форма адекватности информации характеризуется

Синтаксическая мера информации – бит и байт Синтаксическая форма адекватности информации характеризуется
объемом данных и количеством информации. Объем данных чаще всего измеряется числом символов (разрядов) Vd в передаваемом сообщении. В двоичной системе один разряд - это бит (или байт = 8 бит), в десятичной системе - это число, представленное одной арабской цифрой (от 0 до 9).
Единицей двоичной информации является бит. Он имеет всего два значения - логический 0 и 1 (или утверждения «Да» и «Нет» или «True» (Истина) или «False» (Фальшь или неправда). Бит может быть простейшим электрическим сигналом - есть напряжение на проводе, это логическая единица, нет - логический ноль. Точная величина напряжения принципиального значения не имеет.
Двоичные числа могут иметь много разрядов. К примеру, для передачи 16 значений десятичных чисел от 0 до 15 придется использовать минимум четыре разряда двоичного числа (24 = 16). Число 0, к примеру, мы можем записать как двоичное 0000, число 15 как 1111, а число 10 как 1010. В последнем случае имеем 10=1х8 + 0х4 + 1х2 + 0х1, где 8, 4, 2 и 1 - это веса разрядов двоичного числа.

Слайд 13


Синтаксическая мера информации – бит и байт

По мере роста объема передаваемой

Синтаксическая мера информации – бит и байт По мере роста объема передаваемой
информации пришлось перейти к более крупным единицам ее измерения.
Оказалось, что для кодирования текстов самым приемлемым пакетом двоичных единиц информации стали байты - они содержат восемь двоичных единиц и, соответственно, имеют два в восьмой степени состояний (всего 28 = 256 со значениями от 0 до 255).
Итак, информацию можно оценивать ее объемом - байтами, килобайтами (1 Кбайт = 1024 байта), мегабайтами (1 Мбайт = 1024 Кбайт) и т.д.

Слайд 14


Числа десятичные и шестнадцатеричные

Цифровая информация основана на применении чисел в той

Числа десятичные и шестнадцатеричные Цифровая информация основана на применении чисел в той
или иной системе исчисления. Числа характеризуются основанием.
Двоичные числа (основание 2) и восьмеричные числа (основание 8) в обиходе используются редко, но для компьютерных технологий они являются базовыми и привычными.
В ряде случаев, например для указания адресов и содержимого ячеек памяти, применяются шестнадцатеричные числа с основанием 16.
Каждый p-й разряд такого числа HEX (p = 0, 1, 2,..., 9, A, B, C, D, E, F) дает вклад в десятичное значение адреса A, равный DEC*16^p
(знак ^ означает возведение в степень), где DEC - десятичное значение числа. Их соотношение выглядит следующим образом:
HEX 0 1 2 3 4 5 6 7 8 9 A B C D E F
DEC 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15

Слайд 15


Мера информации по Шеннону

Допустим, что до получения информационного сообщения пользователь информационной

Мера информации по Шеннону Допустим, что до получения информационного сообщения пользователь информационной
системой имел предварительные (априорные) сведения о системе – α. Его неосведомленность о системе определяется энтропией H(α).
С получением сообщения β неопределенность сведений о системе становится равной Hβ(α).
Тогда количество информации в сообщении будет равно
Iβ(α) = H(α) - Hβ(α)
Следовательно, количество информации определяется уменьшением неопределенности состояния системы.
Если конечная неопределенность Hβ(α) становится равной 0, то неполное знание о системе H(α) будет заменено полным знанием, что означает Iβ(α) = H(α).

Слайд 16


Мера информации по Шеннону

Пусть некоторая информационная система имеет N возможных состояний.

Мера информации по Шеннону Пусть некоторая информационная система имеет N возможных состояний.
Крупный специалист в информатике Шеннон показал, что энтропия системы, как мера недостающей информации о ней, определяется выражением
где Pi – вероятность нахождения системы в i-ом состоянии. Если все состояния системы равновероятны, то имеем:

Слайд 17


Мера информации по Шеннону

Заметим, что N = mn,
где m –

Мера информации по Шеннону Заметим, что N = mn, где m –
основание системы исчисления,
n – число разрядов (символов) в сообщении.
Коэффициентом или степенью информативности сообщения называют отношение количества информации ( I )
к объему данных в сообщении (Vd ), т. е. величина Y=I / Vd
Эта величина лежит в интервале 0Чем она выше, тем меньше объем работ по преобразованию информации.

Слайд 18


Семантическая и прагматическая меры информации

Для измерения смыслового (семантического) количества информации используется

Семантическая и прагматическая меры информации Для измерения смыслового (семантического) количества информации используется
тезаурус – совокупность сведений, которыми располагает пользователь или система распознавания информации.
Пусть S – смысловое содержание информации, а Su – тезаурус пользователя.
Если Su = 0, то поступающая информация для пользователя (или системы) бесполезна, ибо пользователь не знает, как ее интерпретировать.
Если Su → ∞, то пользователь уже все знает и поступающая информация для него также бесполезна.
Таким образом, можно утверждать, что зависимость количества получаемой семантической информации
Is = f(Su) имеет максимум и спадающие участки по обе
стороны от него.

Слайд 19


Семантическая и прагматическая меры информации
Отношение количества семантической информации Is к объему

Семантическая и прагматическая меры информации Отношение количества семантической информации Is к объему
данных Vd принято называть относительной мерой количества семантической информации С = Ic/ Vd.
Прагматическая мера информации определяет ее ценность для конкретного пользователя.
Например, информация может быть ценной из-за того, что она относится к конкретному лицу или устройству, которое интересует пользователя.
Она может быть ценной из-за того, что может размещаться на доступных пользователю накопителях информации и т.д.

Слайд 20


Что было до появления ЭВМ

Первый проект механической машины, управляемой по введенной

Что было до появления ЭВМ Первый проект механической машины, управляемой по введенной
в нее с перфокарт программе, был создан в 1834 году Чарльзом Бэббиджем.
Для привода машины Бэббидж предполагал использовать паровой двигатель.
В своей машине Бэббидж выделял четыре главных блока:
склад для хранения чисел (по нынешней терминологии память);
мельница для перемалывания-обработки чисел
(по-нашему, это арифметическое устройство);
устройство управления;
устройство ввода-вывода.

Слайд 21


Что было до появления ЭВМ

Так что Бэббиджа можно считать первым архитектором

Что было до появления ЭВМ Так что Бэббиджа можно считать первым архитектором
вычислительных машин – архитектура его машины сохраняет свое значение и поныне. Бэббидж также предвосхитил возможность изменения алгоритма решения задач по мере их выполнения.
Для записи программ Бэббидж заимствовал идею применения перфокарт, которую предложил и реализовал в ткацких станках Жаккар. Такие карты представляли собой лист плотной бумаги с отверстиями. Отсутствие и наличие отверстия в том или ином месте означало запись логического нуля и единицы.
Ада Лавлейс (дочь поэта Д. Байрона) подготовила первые программы для машины Бэббиджа. В них впервые были реализованы циклы – повторяющиеся неоднократно операции. Ее вклад, как первого в истории Человечества программиста, увековечен в названии современного языка программирования Ада.

Слайд 22


Что было до появления ЭВМ

Создание первых механических вычислительных устройств способствовало развитию

Что было до появления ЭВМ Создание первых механических вычислительных устройств способствовало развитию
теории вычислений и алгоритмов. Джорж Буль (1815-1864 гг.), который предложил математическое описание логических и арифметических операций, ныне известное как алгебра Буля. По существу Буль создал теоретические основы работы современных цифровых машин.
В 1874 Орднер (Россия) разработал механические счетные машинки небольших размеров – арифмометры. В 1931 году в России был организован выпуск арифмометров «Феликс». Лишь недавно они исчезли с прилавков магазинов канцтоваров. А в 1969 году (уже в век электронных вычислительных машин) только в СССР было выпущено 300 000 арифмометров!
В 1888 году Герман Холлерит создал первую электромеханическую машину – табулятор для обработки перфокарт. Она помогла осуществить перепись населения США. Обработку ее результатов осуществили 43 помощника Холлерита в течение всего одного месяца. Это был феноменальный успех – результаты предшествующей переписи обрабатывало свыше 500 человек на протяжении десяти дет!

Слайд 23


Что было до появления ЭВМ

В 1896 году Холлерит создал фирму Computing

Что было до появления ЭВМ В 1896 году Холлерит создал фирму Computing
Tabulation Company, которая занималась разработкой и выпуском табуляторов. Из нее и родилась ныне знаменитая корпорация IBM (International Business Machine).
В 1930 году В. Буш создает дифференциальный анализатор, способный решать дифференциальные уравнения. Одна из последних моделей этого устройства, построенная уже в 1942 году (в разгар второй мировой войны), весила 200 тонн.
В 1937 году Алан Тьюринг опубликовал фундаментальную математическую работу с описанием алгоритмов математических вычислений с помощью гипотетической машины.

Слайд 24


Что было до появления ЭВМ

Немецкий инженер Конрад Цузе на рубеже тридцатых/сороковых

Что было до появления ЭВМ Немецкий инженер Конрад Цузе на рубеже тридцатых/сороковых
годов 20 века создал первые двоичные электромеханические машины на основе реле Это машины Z1 и Z3. Последняя была изготовлена в 1941 году и имела около 2600 реле.
Профессор Гарвардского университета Г. Айкен в 1944 году при участии IBM построил релейную машину ASCC (Mark-1)
Физик и математик Джон фон Нейман, США, предложил хранить в памяти вычислительных машин как данные для вычислений, так и программы. Это была основополагающая идея, обеспечивающая вычисления под управлением меняющихся в их ходе данных.
Он же предложил классическую архитектуру вычислительных машин, состоящую из следующих узлов:
арифметико-логическое устройство (АЛУ);
устройство управления (УУ);
запоминающее устройство (ЗУ);
система ввода информации;
система вывода информации.

Слайд 25

Поколения ЭВМ (компьютеров)

Этапы развития

2. Транзисторные ЭВМ

4.ЭВМ на интегральных схемах высокой степени

Поколения ЭВМ (компьютеров) Этапы развития 2. Транзисторные ЭВМ 4.ЭВМ на интегральных схемах
интеграции

1.Ламповые ЭВМ

3.ЭВМ на интегральных схемах низкой и средней степени интеграции

5. ЭВМ с логическим программированием

Электронные вычислительные машины (ЭВМ) - это устройство для получения, хранения, переработки и представления информации.

Слайд 26

Новая информационная технология (НИТ)

Новая информационная технология (НИТ)

Слайд 27

Программный
продукт

3. По преимуществу, которое приносит компьютерная технология.

2.По проблемам, стоящим на пути информатизации

Программный продукт 3. По преимуществу, которое приносит компьютерная технология. 2.По проблемам, стоящим
общества

4.По видам инструментария ИТ

По виду задач и процессов
обработки информации

Внедрение ПК в информационную сферу и применение телекоммуникационных средств связи определили новый этап развития информационной технологии с изменением ее названия за счет присоединения одного из синонимов: «новая», «компьютерная» или «современная».

Этапы развития НИТ

www.themegallery.com

Программный
продукт

Слайд 28

Концепция НИТ

Можно выделить две стратегии внедрения НИТ в локальную информационную структуру:
1.ИТ

Концепция НИТ Можно выделить две стратегии внедрения НИТ в локальную информационную структуру:
приспосабливается к условиям объекта;
2.Объект модернизирует свою организационную структуру.

1 стратегия
ИТ приспосабливается к организационной структуре в ее существующем виде. Происходит локальная модернизация сложившихся методов работы.
Коммуникации развиты слабо, и рационализируются только рабочие места.
Происходит распределение функций между техническими работниками (операторами), специалистами (администраторами): слияние функций сбора и обработки информации (физический поток документов) с функцией принятия решений (информационный поток).

Имя файла: Передача-информации-и-сообщения.pptx
Количество просмотров: 148
Количество скачиваний: 0