Вероятностный подход к измерению информации кратко

Обновлено: 17.05.2024

ВложениеРазмер
statya.rar 394.24 КБ

Предварительный просмотр:

Конспект урока информатики в 10 классе

  1. Обучающая – формирование у учащихся понимания вероятности, равновероятных событий, не равновероятных событий; вероятностного подхода к измерению информации;
  2. Развивающая – развивать умение качественно оценивать поставленную задачу для правильного выбора способа решения задачи; развивать самостоятельность; логическое мышления учащихся.
  3. Воспитательная – формировать интерес к предмету, навыки контроля и самоконтроля; чувство ответственности, деловые качества учащихся.

Тип урока : урок изучения нового материала.

Оборудование: компьютерный класс, оборудованный компьютерами Pentium I и выше, лицензионное ПО: операционная система Windows 97/2000/XP, MS Office 2000 и выше, интерактивная доска, проектор.

2.Объяснение нового материала (сопровождается презентацией – приложение 1 ):

-Можно ли измерить количество вещества и как именно?

-Можно ли определить количество энергии?

-Можно ли измерить количество информации и как это сделать? ( правильного ответа на этот вопрос учащиеся не дадут ).

Оказывается, то информацию также можно измерять и находить ее количество. Об этом мы и поговорим с вами на уроке.

Существуют два подхода к измерению информации. Один из них называется содержательный или вероятностный.

Допустим, вы бросаете монету, загадывая, что выпадет: орел или решка? Есть всего два варианта возможного результата бросания монеты. Причем, ни один из этих вариантов не имеет преимущества перед другим. В таком случае говорят, что они равновероятны.

Так вот, в этом случае перед подбрасыванием монеты неопределенность знаний о результате равна двум. Игральный кубик с шестью гранями может с равной вероятностью упасть на любую из них. Значит, неопределенность знаний о результате бросания кубика равна шести.

Следовательно, можно сказать так: неопределенность знаний - это количество возможных результатов события (бросания монеты, кубика; вытаскивания жребия и пр.)

На экзамен приготовлено 20 билетов.

  • Чему равно количество событий, которые могут произойти при вытягивании билета? (2 0 )
  • Равновероятны эти события или нет? ( да )
  • Чему равна неопределенность знаний ученика перед тем как он вытянет билет? (2 0 )
  • Во сколько раз уменьшится неопределенность знания после того как ученик билет вытянул? (2 0 )
  • Зависит ли этот показатель от номера вытянутого билета? ( нет )

Информация при данном подходе рассматривается как знание для человека.

За единицу измерения информации принимается уменьшение неопределенности знаний человека в 2 раза.

Эта единица называется битом и является минимальной единицей информации.

Один из учеников загадывает число из интервала от 1 до 16. Учитель задает вопросы, ученик на них отвечает, и весь класс вместе с учителем заполняют следующую таблицу:

В жизни чаще всего случаются события, частота появления которых различна. Речь идёт о неравновероятных событиях. Например, летом чаще солнечно и ясно, чем пасмурно.

Вероятность некоторого события — это величина \(p\) 0 ≤ p ≤ 1 , которая показывает частоту появления этого события в ряде однотипных испытаний.

Если событие может наступить или не наступить с одинаковой вероятностью, то его вероятность: \(p = 0,5\).

Американский учёный Клод Шеннон был одним из основоположников теории информации и криптографии. Им была выведена в \(1948\) году формула для вычисления количества информации равновероятных событий:

I = − ∑ i = 1 N p i ⋅ log 2 p i , где \(i\) — количество информации; \(N\) — количество возможных событий; p i — вероятность \(i\)-го события.

пусть вероятность выпадения осадков в виде дождя равна \(0,5\), ветра — \(0,25\), грозы и молнии — \(0,125\). Определим, какое количество информации получим при реализации одного из них.

I = − 0 , 5 ⋅ log 2 0,5 + 0 , 25 ⋅ log 2 0,25 + 0 , 125 ⋅ log 2 0,125 + 0 , 125 ⋅ log 2 0,125 = = − − 0,5 − 0,5 − 0,375 − 0,375 = 1,75 .

Информация нуждается в измерении. На практике количество информации измеряется с точки зрения синтаксической адекватно­сти. Исторически сложились два подхода к измерению информации: вероятностный и объемный. В 1940-х гг. К. Шеннон предложил ве­роятностный подход, а работы по созданию ЭВМ способствовали развитию объемного подхода.

Рассмотрим вероятностный подход к измерению количества ин­формации.

Пример 1.Найти вероятность выпадения числа 6 при бросании кости.Решение. Всего граней у кости N = 6. Число 6 присутствует только на одной грани.



Следовательно, вероятность выпадения числа 6 при бросании кости: Р=M/N/

Пример 2.Найти вероятность выпадения числа, большего 3, при бросании кости.

Решение. Всего граней у кости N = 6. Чисел, больших 3, на гранях кости М= 3.



Следовательно, вероятность выпадения числа, большего 3, при бросании кости: P=M/N=3/6=1/2. Если N состояний системы не равновероятны, т.е. система на­ходится в i-м состоянии с вероятностью Pi и при этом все состояния системы образуют полную группу событий, т.е. сумма вероятностей равна: , то используются следующие формулы, предложенные Шенноном. Для определения количества информации:a)в одном (i-м) состоянии системы H=Log2 (1/ );b)среднего количества информации во всех состояниях системы:

H=-

Из приведенных выражений следует, что количество информации максимально, если состояния системы равновероятны.

Объемный подход

Более подробно о системах счисления будет рассказано позже.

Наряду с битом используется укрупненная единица измерения — байт, равная 8 бит.При кодировании информации по Y разрядам с помощью X символов количество возможных различных комбинаций N определяется по формуле N=X y (этосоотношение определяет число размещений с повторениями). При двоичном кодировании (Х=2) количество возможных различных комбинаций N определяется по формуле N=2 Y .

Напомним таблицы размерностей:


1 байт = 8 бит (8 = 2 3 ); в международной системе кодов ASCII (AmtricanStandardCodeforInformationInterchange, Американский стандартный код обмена информацией) каждый символ кодировался одним байтом, чтопозволяло закодировать = 256 символов, чего на первых порах хватало. Сейчас происходит переход к кодировке Unicode, где каждый символ кодируется двумя байтами, что позволяет кодировать 2 16 = 65536 символов, многократно увеличивая возможности кодирования.

1 Кбайт (килобайт) = 1024 байт (2 10 байт). По этому поводу есть анекдот, что физик думает, что в одном килобайте 1000 байт, а программист - что в одном килограмме 1024 грамма.

1 Мбайт (мегабайт) = 1024 Кбайта (2 10 Кбайт или 2 20 байт).

1 Гбайт (гигабайт)=1024 Мбайта (2 10 Мбайт или 2 30 байт).

1 Тбайт (терабайт)=1024 Гбайта (2 10 Гбайт или 2 40 байт).

В недалеком будущем нас ожидают:

1 Пбайт (петабайт) =1024 Тбайта (2 10 Тбайт или 2 50 байт).

1 Эбайт (экзабайт) =1024 Пбайта (2 10 Пбайт или 2 60 байт).

1 Збайт (зеттабайт) =1024 Эбайта (2 10 Эбайт или 2 70 байт).




1 Йбайт (йоттабайт) =1024 Збайта (2 10 Збайт или 2 80 байт)

Для удобства использования введены и более крупные единицы объема данных:

1 024 байт = 1 килобайт (Кбайт);

1 024 Кбайт = 1 мегабайт (Мбайт) = 1 024 2 байт = 1048 576 байт;

1 024 Мбайт = 1 гигабайт (Гбайт) = 1 024 3 байт;

1 024 Гбайт = 1 терабайт (Тбайт) = 1 024 4 байт;

1 024 Тбайт = 1 пентабайт (Пбайт) = 1 024 5 байт.

Общий объем информации в книгах, цифровых и аналоговых но­сителях за всю историю человечества составляет по оценкам 10 18 байт. Зато следующие 10 18 байт будут созданы в течение пяти —семи лет.

Отличие объема данных от количества информации заключается в следующем: объем данных выражается только целыми значениями, а количество информации — вещественными.

Формулу Хартли можно использовать для определения объема данных. При этом результат округляется в большую сторону, так как минимальной ячейкой памяти в ЭВМ является байт. Поэтому, заняв только часть байта (его несколько бит), оставшаяся часть байта не используется.

Решение. Определим, сколько бит необходимо для хранения одной буквы по формуле Хартли:

Результат округлим в большую сторону, следовательно:

Тремя битами можно представить 8 комбинаций: ООО, 001, 010, 011, 100, 101, 110, 111. Для кодирования шести букв используются первые шесть комбинаций, а две последние комбинации не используются.

Vc = М*Vb = 7 • 3 = 21 бит = 2,625 байт.

Результат вновь округлим в большую сторону:

Информатика и ее структура

Информатика — это наука и вид практической деятельности, связанные с процессами обработки информации с помощью вычис­лительной техники.

Информатика представляет собой единство разнообразных от­раслей науки, техники и производства, связанных с переработкой информации с помощью вычислительной техники и телекоммуника­ционных средств связи в различных сферах человеческой деятель­ности.

Основная задача информатики заключается в определении общих закономерностей процессов обработки информации: создания, пере­дачи, хранения и использования в различных сферах человеческой деятельности. Прикладные задачи связаны с разработкой методов, необходимых для реализации информационных процессов с исполь­зованием технических средств.

Информатика включает в себя следующие разделы.

I. Теоретическая информатика.Это часть информатики, вклю­чающая в себя ряд подразделов, тесно связанных с другой наукой — математикой. В теории информации и кодирования изучается ин­формация как таковая, ее свойства, способы измерения количества информации. Областью исследования теории алгоритмов и автоматов являются методы переработки информации с помощью вычислитель­ных систем. Теория формальных языков и грамматик рассматривает правила построения простейших языков с небольшим числом син­таксических конструкций, называемых языками программирования. Теория принятия решений и исследования операций связана с ис­пользованием информации для принятия решений и оценки их опти­мальности. Теоретическая информатика использует математические методы для общего изучения процессов обработки информации.

II. Вычислительная техника.Это раздел, включающий в себя общие принципы построения вычислительных систем. Примером вычислительной системы является персональный компьютер, или ЭВМ. Этот раздел не связан с вопросами физической разработки, реализации и производства элементов вычислительных систем. Здесь рассматривается архитектура вычислительных систем— соглаше­ние о составе, назначении, функциональных возможностях и прин­ципах взаимодействия элементов внутри вычислительных систем и вычислительной системы с другими устройствами. Примерами прин­ципиальных, ставших классическими решений в этой области явля­ются архитектура фон Неймана компьютеров первых поколений, шинная архитектура ЭВМ, архитектура параллельной или многопро­цессорной обработки информации.

III. Программирование.Это деятельность, направленная на раз­работку программного обеспечения вычислительной техники. Про­граммирование делится на разделы, связанные с разработкой соот­ветствующих типов программного обеспечения. Программное обе­спечение, непосредственно управляющее составными частями вычислительной техники, называется системным. Системный уровень программного обеспечения составляют операционные системы. Слу­жебное программное обеспечение— это архиваторы, антивирусы, программы управления файлами и папками. Служебное программное обеспечение предназначено для выполнения некоторых вспомога­тельных функций. Прикладное программное обеспечение— это программы для решения большинства задач пользователя. Приклад­ное программное обеспечение включает в себя офисные, графиче­ские, справочные программы, среды разработки программ и др.

IV. Информационные системы.Это раздел информатики, свя­занный с решением проблем анализа потоков информации в раз­личных сложных системах, их оптимизации, структурировании, принципах хранения и поиска информации по запросу пользователя. Примерами информационных систем являются информационно­справочные, информационно-поисковые, глобальные системы или сети хранения и поиска информации.

V. Искусственный интеллект.Это область информатики, в ко­торой решаются сложнейшие проблемы, находящиеся на пересечении с психологией, физиологией, языкознанием и другими науками. Исторически сложились три основных направления развития систем искусственного интеллекта. Целью работ первого направления явля­ется создание алгоритмического и программного обеспечения вы­числительных машин, позволяющего решать интеллектуальные за­дачи не хуже человека. В рамках второго подхода объектом исследо­ваний являются структура и механизмы работы мозга человека, а конечная цель заключается в моделировании функционирования.

Информация нуждается в измерении. На практике количество информации измеряется с точки зрения синтаксической адекватно­сти. Исторически сложились два подхода к измерению информации: вероятностный и объемный. В 1940-х гг. К. Шеннон предложил ве­роятностный подход, а работы по созданию ЭВМ способствовали развитию объемного подхода.

Рассмотрим вероятностный подход к измерению количества ин­формации.

Пример 1.Найти вероятность выпадения числа 6 при бросании кости.Решение. Всего граней у кости N = 6. Число 6 присутствует только на одной грани.



Следовательно, вероятность выпадения числа 6 при бросании кости: Р=M/N/

Пример 2.Найти вероятность выпадения числа, большего 3, при бросании кости.

Решение. Всего граней у кости N = 6. Чисел, больших 3, на гранях кости М= 3.



Следовательно, вероятность выпадения числа, большего 3, при бросании кости: P=M/N=3/6=1/2. Если N состояний системы не равновероятны, т.е. система на­ходится в i-м состоянии с вероятностью Pi и при этом все состояния системы образуют полную группу событий, т.е. сумма вероятностей равна: , то используются следующие формулы, предложенные Шенноном. Для определения количества информации:a)в одном (i-м) состоянии системы H=Log2 (1/ );b)среднего количества информации во всех состояниях системы:

H=-

Из приведенных выражений следует, что количество информации максимально, если состояния системы равновероятны.

Объемный подход

Более подробно о системах счисления будет рассказано позже.

Наряду с битом используется укрупненная единица измерения — байт, равная 8 бит.При кодировании информации по Y разрядам с помощью X символов количество возможных различных комбинаций N определяется по формуле N=X y (этосоотношение определяет число размещений с повторениями). При двоичном кодировании (Х=2) количество возможных различных комбинаций N определяется по формуле N=2 Y .

Напомним таблицы размерностей:


1 байт = 8 бит (8 = 2 3 ); в международной системе кодов ASCII (AmtricanStandardCodeforInformationInterchange, Американский стандартный код обмена информацией) каждый символ кодировался одним байтом, чтопозволяло закодировать = 256 символов, чего на первых порах хватало. Сейчас происходит переход к кодировке Unicode, где каждый символ кодируется двумя байтами, что позволяет кодировать 2 16 = 65536 символов, многократно увеличивая возможности кодирования.

1 Кбайт (килобайт) = 1024 байт (2 10 байт). По этому поводу есть анекдот, что физик думает, что в одном килобайте 1000 байт, а программист - что в одном килограмме 1024 грамма.

1 Мбайт (мегабайт) = 1024 Кбайта (2 10 Кбайт или 2 20 байт).

1 Гбайт (гигабайт)=1024 Мбайта (2 10 Мбайт или 2 30 байт).

1 Тбайт (терабайт)=1024 Гбайта (2 10 Гбайт или 2 40 байт).

В недалеком будущем нас ожидают:

1 Пбайт (петабайт) =1024 Тбайта (2 10 Тбайт или 2 50 байт).

1 Эбайт (экзабайт) =1024 Пбайта (2 10 Пбайт или 2 60 байт).

1 Збайт (зеттабайт) =1024 Эбайта (2 10 Эбайт или 2 70 байт).

1 Йбайт (йоттабайт) =1024 Збайта (2 10 Збайт или 2 80 байт)

Для удобства использования введены и более крупные единицы объема данных:

1 024 байт = 1 килобайт (Кбайт);

1 024 Кбайт = 1 мегабайт (Мбайт) = 1 024 2 байт = 1048 576 байт;

1 024 Мбайт = 1 гигабайт (Гбайт) = 1 024 3 байт;

1 024 Гбайт = 1 терабайт (Тбайт) = 1 024 4 байт;

1 024 Тбайт = 1 пентабайт (Пбайт) = 1 024 5 байт.

Общий объем информации в книгах, цифровых и аналоговых но­сителях за всю историю человечества составляет по оценкам 10 18 байт. Зато следующие 10 18 байт будут созданы в течение пяти —семи лет.

Отличие объема данных от количества информации заключается в следующем: объем данных выражается только целыми значениями, а количество информации — вещественными.

Формулу Хартли можно использовать для определения объема данных. При этом результат округляется в большую сторону, так как минимальной ячейкой памяти в ЭВМ является байт. Поэтому, заняв только часть байта (его несколько бит), оставшаяся часть байта не используется.

Решение. Определим, сколько бит необходимо для хранения одной буквы по формуле Хартли:

Результат округлим в большую сторону, следовательно:

Тремя битами можно представить 8 комбинаций: ООО, 001, 010, 011, 100, 101, 110, 111. Для кодирования шести букв используются первые шесть комбинаций, а две последние комбинации не используются.

Vc = М*Vb = 7 • 3 = 21 бит = 2,625 байт.

Результат вновь округлим в большую сторону:

Информатика и ее структура

Информатика — это наука и вид практической деятельности, связанные с процессами обработки информации с помощью вычис­лительной техники.

Информатика представляет собой единство разнообразных от­раслей науки, техники и производства, связанных с переработкой информации с помощью вычислительной техники и телекоммуника­ционных средств связи в различных сферах человеческой деятель­ности.

Основная задача информатики заключается в определении общих закономерностей процессов обработки информации: создания, пере­дачи, хранения и использования в различных сферах человеческой деятельности. Прикладные задачи связаны с разработкой методов, необходимых для реализации информационных процессов с исполь­зованием технических средств.

Информатика включает в себя следующие разделы.

I. Теоретическая информатика.Это часть информатики, вклю­чающая в себя ряд подразделов, тесно связанных с другой наукой — математикой. В теории информации и кодирования изучается ин­формация как таковая, ее свойства, способы измерения количества информации. Областью исследования теории алгоритмов и автоматов являются методы переработки информации с помощью вычислитель­ных систем. Теория формальных языков и грамматик рассматривает правила построения простейших языков с небольшим числом син­таксических конструкций, называемых языками программирования. Теория принятия решений и исследования операций связана с ис­пользованием информации для принятия решений и оценки их опти­мальности. Теоретическая информатика использует математические методы для общего изучения процессов обработки информации.

II. Вычислительная техника.Это раздел, включающий в себя общие принципы построения вычислительных систем. Примером вычислительной системы является персональный компьютер, или ЭВМ. Этот раздел не связан с вопросами физической разработки, реализации и производства элементов вычислительных систем. Здесь рассматривается архитектура вычислительных систем— соглаше­ние о составе, назначении, функциональных возможностях и прин­ципах взаимодействия элементов внутри вычислительных систем и вычислительной системы с другими устройствами. Примерами прин­ципиальных, ставших классическими решений в этой области явля­ются архитектура фон Неймана компьютеров первых поколений, шинная архитектура ЭВМ, архитектура параллельной или многопро­цессорной обработки информации.

III. Программирование.Это деятельность, направленная на раз­работку программного обеспечения вычислительной техники. Про­граммирование делится на разделы, связанные с разработкой соот­ветствующих типов программного обеспечения. Программное обе­спечение, непосредственно управляющее составными частями вычислительной техники, называется системным. Системный уровень программного обеспечения составляют операционные системы. Слу­жебное программное обеспечение— это архиваторы, антивирусы, программы управления файлами и папками. Служебное программное обеспечение предназначено для выполнения некоторых вспомога­тельных функций. Прикладное программное обеспечение— это программы для решения большинства задач пользователя. Приклад­ное программное обеспечение включает в себя офисные, графиче­ские, справочные программы, среды разработки программ и др.

IV. Информационные системы.Это раздел информатики, свя­занный с решением проблем анализа потоков информации в раз­личных сложных системах, их оптимизации, структурировании, принципах хранения и поиска информации по запросу пользователя. Примерами информационных систем являются информационно­справочные, информационно-поисковые, глобальные системы или сети хранения и поиска информации.

V. Искусственный интеллект.Это область информатики, в ко­торой решаются сложнейшие проблемы, находящиеся на пересечении с психологией, физиологией, языкознанием и другими науками. Исторически сложились три основных направления развития систем искусственного интеллекта. Целью работ первого направления явля­ется создание алгоритмического и программного обеспечения вы­числительных машин, позволяющего решать интеллектуальные за­дачи не хуже человека. В рамках второго подхода объектом исследо­ваний являются структура и механизмы работы мозга человека, а конечная цель заключается в моделировании функционирования.



Информатика в школе

Измерение информации. Часть 1

6 июня, 2013 Andrey K

Выделяют следующие подходы к определению количества информации :

  1. Вероятностный подход
    • Равновероятностный
    • Неравновероятностный
  2. Алфавитный подход

Данные подходы изучаются в школьном курсе информатики.

Вероятностный подход

Вероятностный подход связан с таким понятием как ВЕРОЯТНОСТЬ.
ВЕРОЯТНОСТЬ — это отношение количества тех наблюдений, при которых рассматриваемое событие наступило, к общему количеству наблюдений. Такая трактовка допустима в случае достаточно большого количества наблюдений или опытов.

Вероятность обозначают буквой p .

Единицы измерения информации: бит, байт, кбайт и т.д.

1 бит — это количество информации, уменьшающее неопределенность знаний в два раза.

При РАВНОВЕРОЯТНОСТНОМ ПОДХОДЕ вероятности наступления того или иного события равны.

Для измерения количества информации, полученной нами при равновероятном событии, используем формулу

(где N — количество возможных исходов события (2 стороны в примере с монеткой),
i — количество информации, которое мы получим, при том или ином исходе события)

Пример: Мы подбрасываем монетку. В большинстве своих случаев (не учитывает ребро) она может упасть либо на ОРЕЛ, либо на РЕШКУ. Вероятность наступления данных событий равны (50\50) — т.е. это равновероятностный подход. 2 равновероятных события. Таким образом: 2=2 i . i=1 биту. Это то количество информации, которое мы получим, когда монетка упадет, и мы узнаем, на какую сторона выпала (орел или решка).

При НЕРАВНОВЕРОЯТНОСТНОМ ПОДХОДЕ вероятности исходов событий не равны.

Пример: В коробке 16 карандашей. Из них 8 синих, 4 красных, 4 зеленых. Вероятность достать из коробки синий карандаш больше, чем вероятность достать зеленый или красный.

Для измерения количества информации при неравновероятностном подходе используют следующие формулы:


(где К — количество интересующих нас событий (достать синий карандаш K=8), N — общее количество события)

(где i — количество информации, которое мы получим, при том или ином исходе события)

Вторая формула называется формулой Шеннона (правда в другом виде). В оригинале формула Шеннона выглядит так

Использование или неиспользовании этой формулы зависит от того, знают ли ученики про логарифм или нет.

Задача: В коробке 16 карандашей. Из них 8 синих, 4 красных, 4 зеленых. Сколько бит информации мы получим, вытащив из коробки синий карандаш?

  • Определим вероятность получения синего карандаша. Итак, количество интересующих нас событий (достать синий карандаш) равна 8. Общее количество событий равно 4+4+8=16.
  • Вероятность p=8/16.
  • Поставив получившееся значение в формулу 1/p=2 i , получим: 2=2 i .
  • Получаем, что i=1 Биту.

Ответ : 1 бит информации мы получим, вытащив синий карандаш из коробки.

Продолжение рассмотрения этой темы смотрите в следующих постах.

Спасибо за внимание!

Свидетельство и скидка на обучение каждому участнику

Зарегистрироваться 15–17 марта 2022 г.

Тема: Вероятностный подход к определению количества информации

сформировать у уча щихся понимание вероятности, равновероятных событий, не равновероятных событий;

научить находить количество информации.

Мы с вами говорили о том, что в основе нашего мира лежат три состав ляющие - вещество, энергия и информация. А как много в мире вещества, энергии и информации.

- Можно ли измерить количество вещества и как именно? (Вещество можно взвесить (в килограммах, гаммах и т.д.) на весах, определить его длину (в сантиметрах, в метрах и т.д.) с помощью линейки; найти его объем, применив соответствующие измерения и т.д.)

— Можно ли определить количество энергии? (Можно, например, найти количество тепловой энергии в Дж, электроэнергии в кВт/ч, и т.д.)

Можно ли измерить количество информации и как это сделать? (Пол ного и правильного ответа на этот вопрос учащиеся не дадут.)

Оказывается, информацию также можно измерять и находить ее количество.

Существуют два подхода к измерению информации.

Один из них называется содержательный или вероятностный. Из назва ния подхода можно сделать вывод, что количество информации зависит от ее содержания.

Упражнение 1 (устно)

1. Столица России - Москва.

2: Сумма квадратов катетов равна квадрату гипотенузы.

Дифракцией света называется совокупность явлений, которые обус ловлены волновой природой света и наблюдаются при его распростра нении в среде с резко выраженной оптической неоднородностью.

Эйфелева башня имеет высоту 300 метров и вес 9000 тонн.

Содержит ли информацию учебник физики за 10 класс? (Да).

Для кого он будет информативным - для ученика 10 класса или 1 клас са? (Для ученика 10 класса он будет информативным, так как в нем со держится новая и понятная ему информация, а для ученика 1 класса она информативной не будет, так как информация для него непонятна.)

Вывод: количество информации зависит от информативности.

2. Введение понятия вероятностного подхода в измерении инфор мации

Пояснение: пример можно продемонстрировать практически.

Упражнение 2 (устно)

Еще один пример. На экзамен приготовлено 30 билетов.

Чему равно количество событий, которые могут произойти при вытя гивании билета? (30)

Равновероятны эти события или нет? (Равновероятны.)

Чему равна неопределенность знаний ученика перед тем как он вытя нет билет? ( 30)

Во сколько раз уменьшится неопределенность знания после того как ученик билет вытянул? (В 30раз.)

Зависит ли этот показатель от номера вытянутого билета? (Нет, т.к. события равновероятны.)

Приведите свои примеры равновероятных событий c указанием величины неопределенности знаний.

Из всех рассмотренных примеров можно сделать следующий вывод:

Получите вы новую информацию после броска? (Нет, так как ответ мы уже знали заранее.)

Чему равно количество информации в этом случае? (Нулю, т.к. оно неинформативно.)

Еще одно определение 1 бита:

Опр. 1 бит — это количество информации, уменьшающее неопределенность знаний в два раза.

Действительно, существует формула, которая связывает между собой ко личество возможных событий и количество информации.

N = 2 i ; где N - количество возможных вариантов,

I - количество информации.

Если из этой формулы выразить количество информации, то получится I = log 2 N .

Как пользоваться этими формулами для вычислений:

если количество возможных вариантов N является целой степенью числа 2, то производить вычисления по формуле N = 2 i достаточно легко. Вернемся к примеру: N = 32; I = 5, т.к. 32 = 2 5 ;

если же количество возможных вариантов информации не является целой степенью числа 2, т.е. если количество информации число вещественное, то необходимо воспользоваться сле дующей таблицей.

Например: Какое количество информации можно получить при угадыва нии числа из интервала от 1 до 11? В этом примере N = 11. Чтобы найти I (количество информации), необходимо воспользоваться таблицей. По таб лице I = 3,45943 бит.

Упражнение 4 (устно)

1. Какое количество информации будет получено при отгадывании чис ла из интервала:

- от 1 до 64 - от 1 до 61

3. Неравновероятные события

На самом деле рассмотренная нами формула является частным случаем, так как применяется только к равновероятным событиям. В жизни же мы сталкиваемся не только с равновероятными событиями, но и событиями, которые имеют разную вероятность реализации.

Если на озере живет 500 уток и 100 гусей, то вероятность подстрелить на охоте утку больше, чем вероятность подстрелить гуся.

Если в мешке лежат 10 белых шаров и 3 черных, то вероятность до стать черный шар меньше, чем вероятность вытаскивания белого.

Если одна из сторон кубика будет более тяжелой, то вероятность выпадения этой стороны будет меньше, чем других сторон.

Упражнение 5 (устно)

Приведите примеры событий с разной вероятностью, несколько приме ров запишите в тетрадь.

Для этого необходимо использовать следующую формулу.

I = log 2 (1/ p ), где I - это количество информации, р - вероятность события.

Вероятность события выражается в долях единицы и вычисляется по формуле:

р = К / N , где К — величина, показывающая, сколько раз произошло ин тересующее нас событие, N — общее число возможных исходов какого-то процесса.

Пояснение: так как дети еще не умеют вычислять значения логарифмической функции, то можно использовать при решении задач этого урока следующий прием:

В какую степень необходимо возвести число 2, чтобы получилось чис ло, стоящее под знаком логарифма

Закрепление изученного

Найдем вероятность того, что достали белый шар: р б = 15 / 20 = 0,75;

Найдем вероятность того, что достали красный шар: р к = 5 / 20 = 0,25.

В коробке лежат кубики: 10 красных, 8 зеленых, 5 желтых, 12 синих. Вы числите вероятность доставания кубика каждого цвета и количество информации, которое при этом будет получено.

- Являются ли события равновероятными? Почему? (Нет, т.к. количес тво кубиков разное.)

- Какую формулу будем использовать для решения задачи? ( I = log (1/ N )
Решение:

Всего кубиков в коробке N = 10 + 8 + 5 + 12 = 35.

Найдем вероятности: р к = 10 / 35 « 0,29, р з = 8/35-0,22,

3. Найдем количество информации:

I к = log 2( l /0,29) = log 23,4 = 1,85695 бит, Ic = log 2( l /0,34) = log 22,9 = 1,71498 бит, I з = log 2( 1/0,22) = log 24,5 = 2,132007 бит, I ж = log 2( l /0,14) = log 27, l = 2,672612 бит.

Решение задач, в условии которых события не равновероятны

N = 8 + 24 = 32 - шара всего;

р ч = 8/32 = ¼ — вероятность доставания черного шара;
3) I ч = log 2 ( 1/1/4) = 2 бита. Ответ: 2 бита.

Дано: N = 64; I 6 = 4.

Решение:1 !) I 6 = log 2 ( l / p 6 ); 4 = log 2 ( l / p 6 ); 1/р 6 =16; р б = 1/16-вероятность доста вания белого карандаша;

2) р 6 = K 6 / N ; 1/16 = К/64; К б = 64/16 = 4 белых карандаша. Ответ: 4 белых карандаша.

2) I 4 = log 2 ( l / p 4 ) = log 2 ( l / l /2)=1 бит. Ответ: 1 бит.

Известно, что в ящике лежат 20 шаров. Из них 10 - синих, 5 - зеленых, 4 — желтых и 1 — красный.

Решение :

р с = K с / N = 10/20 = 1/2 — вероятность доставания синего шара;

р з = K з/ N = 5/20 = 1/4 — вероятность доставания зеленого шара;

р ж = K ж / N = 4/20 = 1/5 — вероятность доставания желтого шара;

р к = K K / N = 1/20 — вероятность доставания красного шара;
5) I с = log 2 (1/1/2)=1бит;

7) I ж = log 2 ( 1/1/5) = 2,236 бит ; ( 2,3219281 бит )

8) I K = log 2 ( 1/1/20) = 4,47213 бит . ( 4,32193 бит)

Ответ: 1 с = 1 бит, 1 з = 2 бит, 1 ж = 2,236 бит, 1 к = 4,47213 бит.

Дано: N = 100,1 4 = 2 бита. Найти: К 4 - ? Решение:

Дано: К ч = 2, I ч = 4 бита.

I ч = log 2 ( l / p ч ), 4 = log 2 ( l / p ч ), 1/р ч = 16, р ч = 1/16 - вероятность доставания черных перчаток;

р ч = K ч/ N , N = Кч/р ч , N = 2*16 = 32 - всего перчаток в ящике;

К 6 = N - К ч = 32 - 2 = 30 пар белых перчаток.
Ответ: 30 пар белых перчаток.

Дано: К б = Кс =8, I 6 = 2 бита.

I 6 = log 2 ( l / P 6 ), 2 = log 2 ( l / p 6 ), 1/р 6 = 4, р 6 = '/ 4 - вероятность расхода белой банки;

N = К бб = 8/(1/4) = 32 - банки с краской было всего;

К к .= N - К 6 - Кс = 32 - 8 - 8 = 16 банок коричневой краски.
Ответ: 16 банок коричневой краски.

Дано: Кч = 16, I б = 2 бита.

1) 1/р б = 2 i , 1/р 6 = 2 2 = 4, р б = 1/4 - вероятность доставания белого шара;

3) N = К чб = 18 + 6 = 24 шара было в корзине.
Ответ: 24 шара лежало в корзине.

Решение задач, в условии которых события равновероятны

Ответ: 1 бит.

Ответ: 1 бит.

Вы подошли к светофору, когда горел красный свет. После
этого загорелся желтый свет. Сколько информации вы при
этом получили?

Решение: из двух сигналов (желтого и зеленого) необходимо выбрать один - зеленый. Поэтому N = 2, а I = 1 бит.

Решение: из 4 дорожек необходимо выбрать одну, т.е. N = 4. Значит по [формуле 1 = 2, т.к. 4 = 2 2 .

Пояснение: номер дорожки (3) не влияет на количество информации, так как вероятности событий в этих задачах мы приняли считать одинаковыми. Ответ: 2 бита.

Решение: так как из 16 вагонов нужно выбрать один, то N = 16, следова тельно, I = 4 (16 = 2 4 ).

Ответ: 4 бита.


При угадывании целого числа в некотором диапазоне было
получено 6 бит информации. Сколько чисел содержит этот
диапазон?

Решение: N = 2 9 = 512. Ответ: диапазон чисел имеет значение от 1 до 512.


Решение: N = 2 4 = 16 этажей. Пояснение: события равновероятны, т.к. номера этажей не повторяются. Ответ: 16 этажей.

Решение: N = 2 3 = 8 подъездов. Пояснение: события равновероятны, т.к. номера подъездов не повторяются. Ответ: 8 подъездов.

Решение: N = 6, следовательно, I = log 2 6. Смотрим по таблице и видим, что I - 2,58496 бит. Ответ: 2,5 бит.

На железнодорожном вокзале 8 путей отправления поездов. Вам сообщи ли, что ваш поезд прибывает на четвертый путь. Сколько информации вы получили?

Решение: из 8 путей нужно выбрать один. Поэтому N = 8, а I = 3, т.к. 8 = 2 3 . Пояснение: номер пути (4) не влияет на количество информации, так как | вероятности событий в этих задачах мы приняли считать одинаковыми. Ответ: 3 бита. №8

Домашнее задание:

Вы угадываете знак зодиака вашего друга. Сколько вопросов вам нуж но при этом задать? Какое количество информации вы получите?

В ведерке у рыбака караси и щуки. Щук в ведерке 3. Зрительное со общение о том, что из ведра достали карася, несет 1 бит информации. Сколько всего рыб поймал рыбак?

Читайте также: