Главная формула информатики доклад

Обновлено: 03.07.2024

Информация содержится везде. Дерево содержит собственную генетическую информацию, и только благодаря этой информации от семечка берёзы вырастает только берёза. Для деревьев источником информации является воздух, именно по уровню состояния воздуха дерево может определить время распускания почек. Перелетные птицы знают свой маршрут перелёта, и каждая стая идёт только своим заданным в генах маршрутом.

Таким образом существует три основные интерпретации понятия "информация":

Научная интерпретация. Информация - исходная общенаучная категория, отражающая структуру материи и способы ее познания, несводимая к другим, более простым понятиям.

Абстрактная интерпретация. Информация - некоторая последовательность символов, которые несут как вместе, так в отдельности некоторую смысловую нагрузку для исполнителя.

Конкретная интерпретация. В данной плоскости рассматриваются конкретные исполнители с учетом специфики их систем команд и семантики языка. Так, например, для машины информация - нули и единицы; для человека - звуки, образы, и т.п.

Также существуют несколько концепций (теорий, подходов) информации.

Первая концепция (концепция К. Шеннона) , отражая количественно-информационный подход, определяет информацию как меру неопределенности события.

Третья концепция основана на логико-семантическом (семантика - изучение текста с точки зрения смысла) подходе, при котором информация трактуется как знание, причем не любое знание, а та его часть, которая используется для ориентировки, для активного действия, для управления и самоуправления. Иными словами, информация - это действующая, полезная, "работающая" часть знаний. Представитель этой концепции В.Г. Афанасьев.

Бит – наименьшая единица измерения информации.

1байт = 8 битов

1 Кбайт = 1 024 байт

1 Мбайт = 1 024 Кбайт

1 Гбайт = 1 024 Мбайт

1 Тбайт = 1 024 Гбайт

Правила перевода: 1) Если из большего в меньшего, то умножаем поэтапно, проходя все единицы. 2) Если из меньшего в большее, то делим поэтапно, проходя все единицы

Существует два подхода к измерению информации:

1) содержательный (вероятностный):

N = 2 I

2) объемный (алфавитный).

Информация является предметом нашей деятельности: мы ее храним, передаем, принимаем, обрабатываем. Нам часто необходимо знать, достаточно ли места на носителе, чтобы разместить нужную нам информацию, сколько времени потребуется, чтобы передать информацию по каналу связи и т.п. Величина, которая нас в этих ситуациях интересует, называется объемом информации. В таком случае говорят об объемном подходе к измерению информации.

В основе языка лежит алфавит, т.е. набор символов (знаков). Число символов в алфавите называется Мощностью алфавита и обозначается -N.

Различают языки естественные, на которых общаются люди, и искусственные (или формальные) - системы счисления, язык алгебры, языки программирования и др.. Основное отличие формальных языков от естественных состоит в наличии строгих правил грамматики и синтаксиса.

Например, системы счисления можно рассматривать как формальные языки, имеющие алфавит (цифры) и позволяющие не только именовать и записывать объекты (числа), но и выполнять над ними арифметические операции по строго определенным правилам.

Некоторые языки используют в качестве знаков не буквы и цифры, а другие символы, например химические формулы, ноты, изображения элементов электрических или логических схем, дорожные знаки, точки и тире (код азбуки Морзе и др.).

Представление информации может осуществляться с помощью языков, которые являются знаковыми системами. Каждая знаковая система строится на основе определенного алфавита и правил выполнения операций над знаками.

Знаки могут иметь различную физическую природу. Например, для представления информации с использованием языка в письменной форме используются знаки, которые являются изображением на бумаге или других носителях; в устной речи в качестве знаков языка используются различные звуки (фонемы), а при обработке текста на компьютере знаки представляются в форме последовательностей электрических импульсов (компьютерных кодов).

При хранении и передаче информации с помощью технических устройств информация рассматривается как последовательность символов – знаков (букв, цифр, кодов цветов точек изображения и т.д.)

Набор символов знаковой системы (алфавит) можно рассматривать как различные возможные состояния (события).

N = 2 I

где N – это количество знаков в алфавите знаковой системы, можно рассчитать I – количество информации, которое несет каждый символ.

32 = 2 I , т.е. I = 5 битов

Ic = I × K

Решение: I = log28 = 3 бита.

Ответ: 3 бита.

Решение: N = 2' = 2 6 = 64 символа.

Ответ: 64 символа.

Решение: N = 2 1 = 2 s = 32 - максимальное значение мощности алфавита. Если символов будет больше хотя бы на один, то для кодирования понадобится 6 бит. Минимальное значение - 17 символов, т.к. для меньшего количества символов будет достаточно 4 бит.

Ответ: 4 бита.

Дано: N = 128, К =30.

Найти: I - ?

1) I = K*i, неизвестно i;

2) i = log2N = log2128 = 7 бит - объем одного символа;

Для записи текста использовался 256-символьный алфавит. Каждая страница содержит 30 строк по 70 символов в строке. Какой объем информации содержат 5 страниц текста?

Дано: N = 256, х = 30 - количество строк, у = 70 - количество символов в строке, М = 5 - количество страниц.

Найти: I - ?

1) i = log2N = log2256 = 8 бит = 1 байт - объем одного символа;

2) К = х*у*М = 30*70*5 = 10500 символов - в тексте;

3) I = i*К = 1*10500 = 10500 байт = 10 Кбайт - объем всего текста.

Ответ: объем всего текста 10 Кбайт.

№ 6

Загадано число из промежутка от 32 до 64. Какое количество вопросов необходимо задать для угадывания числа и какое количество информации при этом получится?

1) Неопределенность знаний N = 64 - 32 = 32;

2) I = log232 = 5 бит - количество информации;

3) Количество бит соответствует количеству вопросов.

Ответ: 5 вопросов.

1)1 = 31024*8:3072 = 8 бит - объем одного символа;

2) N = 2 8 == 256 символов в алфавите.

2) 7200*8:6 = 9600 символов в тексте;

3) 9600:4:40 = 60 символов в строке.

Метеостанция ведет наблюдения за влажностью воздуха. Результатом одного измерения является целое число от 0 до 100, которое записывается при помощи минимально возможного количества битов. Станция сделала 80 измерений. Определите информационный объем результатов наблюдений.

Содержимое работы - 1 файл

Доклад по информатике 1.doc

Муниципальное образовательное учреждение Перевозская средняя общеобразовательная школа

Количество информации.

Бит. Для количественного выражения любой величины необходимо сначала определить единицу измерения. Так, для измерения длины в качестве единицы выбран метр, для измерения массы - килограмм и т. д. Аналогично, для определения количества информации необходимо ввести единицу измерения.

Производные единицы измерения количества информации.

Минимальной единицей измерения количества информации является бит, а следующей по величине единицей - байт, причем:

1 байт = 8 битов = 2 3 битов.

В информатике система образования кратных единиц измерения несколько отличается от принятых в большинстве наук. Традиционные метрические системы единиц, например Международная система единиц СИ, в качестве множителей кратных единиц используют коэффициент 10 n , где n = 3, 6, 9 и т. д., что соответствует десятичным приставкам "Кило" (10 3 ), "Мега" (10 6 ), "Гига" (10 9 ) и т. д. В компьютере информация кодируется с помощью двоичной знаковой системы, и поэтому в кратных единицах измерения количества информации используется коэффициент 2 n Так, кратные байту единицы измерения количества информации вводятся следующим образом:

  • 1 килобайт (Кбайт) = 2 10 байт = 1024 байт;
  • 1 мегабайт (Мбайт) = 2 10 Кбайт = 1024 Кбайт;
  • 1 гигабайт (Гбайт) = 2 10 Мбайт = 1024 Мбайт.

Таким образом, количество экзаменационных билетов равно 32.

Определение количества информации.

Разложим стоящее в левой части уравнения число 8 на сомножители и представим его в степенной форме:

8 = 2 × 2 × 2 = 2 3 .

Алфавитный подход к определению количества информации.

Информационная емкость знака.

С помощью этой формулы можно, например, определить количество информации, которое несет знак в двоичной знаковой системе:

N = 2 => 2 = 2 I => 2 1 = 2 I => I=1 бит.

Таким образом, в двоичной знаковой системе знак несет 1 бит информации. Интересно, что сама единица измерения количества информации "бит" (bit) получила свое название ОТ английского словосочетания "Binary digiT" - "двоичная цифра".

  • Информационная емкость знака двоичной знаковой системы составляет1 бит.

С помощью формулы (1.1) определим количество информации, которое несет буква русского алфавита:

N = 32 => 32 = 2 I => 2 5 = 2 I => I=5 битов.

Таким образом, буква русского алфавита несет 5 битов информации (при алфавитном подходе к измерению количества информации). Количество информации, которое несет знак, зависит от вероятности его получения. Если получатель заранее точно знает, какой знак придет, то полученное количество информации будет равно 0. Наоборот, чем менее вероятно получение знака, тем больше его информационная емкость. В русской письменной речи частота использования букв в тексте различна, так в среднем на 1000 знаков осмысленного текста приходится 200 букв "а" и в сто раз меньшее количество буквы "ф" (всего 2). Таким образом, с точки зрения теории информации, информационная емкость знаков русского алфавита различна (у буквы "а" она наименьшая, а у буквы "ф" - наибольшая).

Так, каждая цифра двоичного компьютерного кода несет информацию в 1 бит. Следовательно, две цифры несут информацию в 2 бита, три цифры - в 3 бита и т. д. Количество информации в битах равно количеству цифр двоичного компьютерного кода (табл. 1.1).

Таблица. Количество информации, которое несет двоичный компьютерный код

  • Для учеников 1-11 классов и дошкольников
  • Бесплатные сертификаты учителям и участникам

Тема 2.1 Подходы к понятию информации и измерению информации. Информационные объекты различных видов. Универсальность дискретного (цифрового) представления информации

(с сопровождением презентации)

*ИНФОРМАЦИЯ- - фундаментальное понятие науки, поэтому определить его исчерпывающим образом через какие-то более простые понятия невозможно

*Подходы к понятию информации

Функциональная концепция: Информация и информационные процессы присущи только живой природе, являются ее функцией

Антропоцентрическая концепция: Информация и информационные процессы присущи только человеку

*Существует два подхода к измерению информации:

Такая единица названа бит .

Бит – наименьшая единица измерения информации.

*С помощью набора битов можно представить любой знак и любое число. Знаки представляются восьмиразрядными комбинациями битов – байтами.

1байт = 8 битов=2 3 битов

Байт – это 8 битов, рассматриваемые как единое целое, основная единица компьютерных данных.

*Рассмотрим, каково количество комбинаций битов в байте.

Если у нас две двоичные цифры (бита), то число возможных комбинаций из них:

2 2 =4 : 00, 01, 10, 11

Если четыре двоичные цифры (бита), то число возможных комбинаций:

2 4 =16 : 0000, 0001, 0010, 0011,

0100, 0101, 0110, 0111,

1000, 1001, 1010, 1011,

1100, 1101, 1110, 1111

*Так как в байте- 8 бит (двоичных цифр), то число возможных комбинаций битов в байте:
2 8 =256 , т .о., байт может принимать одно из 256 значений или комбинаций битов.

*Для измерения информации используются более крупные единицы:
килобайты, мегабайты, гигабайты, терабайты и т.д.

1 Кбайт =1 024 байт
1 Мбайт = 1 024 Кбайт
1 Гбайт = 1 024 Мбайт
1 Тбайт = 1 024 Гбайт

*Объемный (алфавитный подход) к измерению информации

Алфавитный подход позволяет измерить количество информации в тексте, составленном из символов некоторого алфавита.

*Алфавитный подход к измерению информации

Это объективный, количественный метод для измерения информации, циркулирующей в информационной технике.

*Алфавит- множество символов, используемых для представления информации.

Мощность алфавита – число символов в алфавите (его размер) N .

*Например, алфавит десятичной системы счисления – множество цифр- 0,1,2,3,4,5,6,7,8,9.

Мощность этого алфавита – 10.

Компьютерный алфавит , используемый для представления текстов в компьютере, использует 256 символов .

Алфавит двоичной системы кодирования информации имеет всего два символа- 0 и 1.

Алфавиты русского и английского языков имеют различное число букв, их мощности – различны.

* Информационный вес символа ( количество информации в одном символе ), выраженный в битах ( i ), и мощность алфавита ( N ) связаны между собой формулой:

N = 2 i

где N – это количество знаков в алфавите знаковой системы или мощность

Тогда информационный вес символа:

i = log 2 N

В латинском алфавите 26 букв. Информационная емкость буквы латинского алфавита также 5 битов.

I с = K * i БИТ

*Информационные объекты различных видов

*Информационный объект – обобщающее понятие, описывающее различные виды объектов; это предметы, процессы, явления материального или нематериального свойства, рассматриваемые с точки зрения их информационных свойств.
Простые информационные объекты :
звук, изображение, текст, число.
Комплексные (структурированные) информационные объекты :
элемент, база данных, таблица, гипертекст, гипермедиа.

*Информационный объект:

обладает определенными потребительскими качествами (т.е. он нужен пользователю);

допускает хранение на цифровых носителях;

допускает выполнение над ним определенных действий путем использования аппаратных и программных средств компьютера.

Табличные процессоры

Электронные таблицы

Пакеты мультимедийных презентаций

Компьютерные презентации

СУБД – системы управления базами данных

Базы данных

Клиент-программа электронной почты

Электронные письма, архивы, адресные списки

Программа-обозреватель Интернета (браузер)

Web -страницы, файлы из архивов Интернета

* Универсальность дискретного (цифрового) представления информации.

* Текстовая информация дискретна – состоит из отдельных знаков

* Дискретное (цифровое) представление графической информации

Изображение на экране монитора дискретно. Оно составляется из отдельных точек- пикселей.

Пиксель — минимальный участок изображения, которому независимым образом можно задать цвет.

* В процессе дискретизации могут использоваться различные палитры цветов. Каждый цвет можно рассматривать как возможное состояние точки.

Количество цветов N в палитре и количество информации I , необходимое для кодирования цвета каждой точки, вычисляется по формуле:

Пример
Наиболее распространенными значениями глубины цвета при кодировании цветных изображений являются 4, 8, 16 или 24 бита
на точку.
Можно определить количество цветов в 24-битовой палитре: N = 2 I = 2 24 = 16 777 21бит.

* Дискретное (цифровое) представление звуковой информации

Частота дискретизации звука — это количество измерений громкости звука за одну секунду.

Глубина кодирования звука — это количество информации, которое необходимо для кодирования дискретных уровней громкости цифрового звука.

Если известна глубина кодирования, то количество уровней громкости цифрового звука можно рассчитать по формуле

N = 2 I

* Дискретное (цифровое) представление видеоинформа

ВИДЕОИНФОРМАЦИЯ -это сочетание звуковой и графической информации. Кроме того, для создания на экране эффекта движения используется дискретная технология быстрой смены статических картинок.

Способ уменьшения объема видео: первый кадр запоминается целиком (ключевой), а в следующих сохраняются только отличия от начального кадра (разностные кадры).



В данный момент вы не можете посмотреть или раздать видеоурок ученикам

Чтобы получить доступ к этому и другим видеоурокам комплекта, вам нужно добавить его в личный кабинет, приобретя в каталоге.

Получите невероятные возможности




Конспект урока "Измерение информации. Содержательный подход"

· содержательный подход к измерению информации;

· неопределённость знания об исходе некоторого события;

· единица измерения количества информации в рамках содержательного подхода.




Корреляция, корреляционная зависимость — это зависимость между величинами, каждая из которых подвергается неконтролируемому разбросу (неинформативно, так как непонятно).


Необходимо отличать понятия информация и информативность.

Например, содержит ли учебник по информатике для десятого класса информацию? Конечно содержит, но для кого он будет информативным – для ученика десятого класса или первого класса? Естественно для ученика десятого класса. Первоклассник ничего из этого учебника не поймёт.


Теперь мы можем сделать вывод: количество информации зависит от информативности.

Информативность можно обозначить единицей, неинформативная информация равна нулю. Но это не даёт точного определения количества информации.

Алфавитный подход применяется для измерения информации, используемой компьютером. Так как компьютер не понимает смысла информации.

Содержательный подход применяется для измерения информации, используемой человеком.


Допустим, вы бросаете монету, загадывая, что выпадет: орёл или решка. Есть всего два возможных результата бросания монеты.


Причём ни один из этих результатов не имеет преимущества перед другим. В таком случае говорят, что они равновероятны.

В данном случае с монетой, перед её подбрасыванием неопределённость знания о результате равна 2.

Если же бросать игральный кубик с шестью гранями, то он может с равной вероятностью упасть на любую из них. Значит, неопределённость знания о результате бросания кубика равна 6.


Или такая ситуация: спортсмены-бегуны перед забегом путём жеребьёвки определяют свои порядковые номера на старте. Допустим, что в забеге участвует 100 спортсменов, тогда неопределённость знания спортсмена о своём номере до жеребьёвки равна 100.

Неопределённость знания о результате некоторого события - это количество возможных результатов исхода события.

Вернёмся к спортсменам-бегунам.

Здесь событие – это жеребьёвка спортсменов; исход – спортсмену выпал, например, номер 34.


Итак, в первом примере возможны два варианта ответа: орёл, решка; во втором примере шесть вариантов: 1, 2, 3, 4, 5, 6.

В третьем примере – 100 вариантов, может выпасть номер от 1 до 100.

В 40-х годах 20 века Клод Шеннон — американский учёный и инженер, один из создателей математической теории информации, решил проблему измерения информации.


Шеннон дал такое определение информации: Информация – это снятая неопределённость знания человека об исходе какого-то события.


Или такой пример. Вы подошли к светофору на пешеходном переходе, когда горел красный свет. Загорелся зелёный. Здесь вы также получили один бит информации.


Значит в примерах с кубиком и спортсменами количество информации будет больше. Давайте выясним как измерить это количество.


Подумав староста класса задала следующие вопросы:

1 вопрос. Номер кабинета меньше 9? – Да. Ответил учитель

2 вопрос. Номер кабинета больше 4? – Да.

3 вопрос. Номер кабинета чётный? – Нет.

4 вопрос. Номер кабинета 5? – Нет.

Ученики поняли, что занятия состоятся в кабинете номер 7.

Итак, сколько же информации получили ученики?

Первоначально неопределённость знания (количество возможных кабинетов) была равна 16. С ответом на каждый вопрос неопределённость знания уменьшалась в два раза и, следовательно, согласно данному выше определению, передавался 1 бит информации.

Первоначально было 16 вариантов. После первого вопроса осталось 8 вариантов, и ученики получили 1 бит информации.

После 2 вопроса осталось 4 варианта, и ученики получили ещё 1 бит информации.

После 3 вопроса осталось 2 варианта и был получен ещё 1 бит информации.

И, наконец после 4 вопроса, остался 1 вариант и получен ещё 1 бит информации.

То есть мы можем сделать вывод, что ученики получили четыре бит информации.

Такой способ нахождения количества информации, называется методом половинного деления: здесь ответ на каждый заданный вопрос уменьшает неопределённость знания, которая имеется до ответа на этот вопрос, наполовину. Каждый такой ответ несёт 1 бит информации.

Нужно отметить, что методом половинного деления наиболее удобно решать подобные проблемы. Таким способом всегда можно угадать, например, любой из 32 вариантов максимум за 5 вопросов.

Теперь мы можем полученные результаты описать с помощью следующих определений:

Для того чтобы при измерении одной и той же информации получалось одно и то же значение количества информации, необходимо договориться об использовании определённого алфавита.

Вернёмся к нашим примерам.


Обратите внимание, между данными величинами есть связь, которая выражается формулой.

Эта формула вам уже знакома. Также вы с ней встретитесь ещё не раз. Эта формула очень важна, поэтому её называют главной формулой информатики.


В математике такое уравнение называется показательным.


Рассмотрим следующий пример.


Итак, мы уже говорили о том, что с формулой 2 i = N мы уже встречались на прошлом уроке, когда говорили об алфавитном подходе к измерению информации. Тогда N рассматривалось как мощность алфавита, a i — как информационный вес каждого символа алфавита.


То есть, если значение N равно целой степени двойки, то показательное уравнение легко решить, а если нет, как в нашем примере. Как поступить в этом случае?

Можно догадаться, что решением уравнения будет дробное число, которое находится между 6 и 7.

В математике существует функция, с помощью которой решаются показательные уравнения. Эта функция называется логарифмом.

Тогда решение показательного уравнения запишется i равно логарифм N по основанию 2. Это означает, что мы должны найти степень, в которую нужно возвести основание, в нашем случае 2, чтобы получить N.


Например, для целых степеней двойки получим:


Значения логарифмов находятся с помощью специальных логарифмических таблиц. Также можно использовать инженерный калькулятор или табличный процессор.



Формула для измерения количества информации была предложена американским учёным-электронщиком Ральфом Хартли, который является одним из основоположников теории информации.


Данный пример показал, что количество информации, определяемое с использованием содержательного подхода, может быть дробной величиной, если же находить информационный объем, путём применения алфавитного подхода, то там может быть только целочисленное значение.

Один бит - это минимальная единица измерения количества информации.


Для измерения количества информации применяется формула Хартли:

Читайте также: