Сообщение несет 8 бит информации сколько всего сообщений

Обновлено: 05.07.2024

Решение задач по теме "Количество информации" (10кл)

Пример 1. В коробке 32 карандаша, все карандаши разного цвета. Наугад вытащили красный. Какое количество информации при этом было получено?

Решение.
Так как вытаскивание карандаша любого цвета из имеющихся в коробке 32 карандашей является равновероятным, то число возможных событий равно 32.
N = 32, I = ?
N = 2 I , 32 = 2 5 , I = 5 бит.
Ответ: 5 бит.

Решение.
Количество информации вычисляется по формуле: 2 i = N, где i - искомая величина, N - количество событий. Следовательно, 2 3 =8.
Ответ: 3 бита.

Пример 5. Заполнить пропуски числами:

а) 5 Кбайт = __ байт = __ бит, б) __ Кбайт = __ байт = 12288 бит; в) __ Кбайт = __ байт = 2 13 бит; г) __Гбайт =1536 Мбайт = __ Кбайт; д) 512 Кбайт = 2__ байт = 2__ бит.

Решение.
а) 5 Кбайт = 5120 байт =40 960 бит,
б) 1,5 Кбайт = 1536 байт = 12 288 бит;
в) 1 Кбайт = 2 10 байт = 2 13 бит;
г) 1,5 Гбайт = 1536 Мбайт = 1 572 864 Кбайт;
д) 512 Кбайт = 2 19 байт = 2 22 бит.

Решение.
1) 1/512 Мб * 1024 = 2 Кб * 1024 = 2048 байт
2) К = 2048 символов, следовательно, i = 1 байт = 8 бит
3) 2 i = N; 2 8 = 256 символов

Ответ: 1) 1/512 Мб * 1024 = 2 Кб * 1024 = 2048 байт
2) К = 2048 символов, следовательно, i = 1 байт = 8 бит
3) 2 i = N; 2 8 = 256 символов.

Пример 7.Книга, набранная с помощью компьютера, содержит 150 страниц; на каждой странице - 40 строк, в каждой строке - 60 символов. Каков объем информации в книге?

Решение.
Мощность компьютерного алфавита равна 256. Один символ несет 1 байт информации.
Значит, страница содержит 40*60=2400 байт информации. Объем всей информации в книге: 2400*150 = 360 000 байт.
Ответ: 360 000 байт.

Решение.
Для кодировки одной из 10 цифр необходимо 4 бита. Это получаем из 2 3 4 . Объём 150 символов получим 150*4=600(бит).
Ответ: 600 бит.

Пример 9.В кодировке Unicode на каждый символ отводится два байта. Определите информационный объем слова из двадцати четырех символов в этой кодировке.

Решение.
I= K*i; I = 24*2 байт = 48 байт = 48*8бит = 384 бит.
Ответ: 384 бита.

Решение.
Количество информации вычисляется по формуле: 2 i = N, где i - искомая величина, N - количество событий.
2 i =128. Следовательно, i=7.
Ответ: 7 бит.

Давайте разберемся с этим, ведь нам придется измерять объем памяти и быстродействие компьютера.

Единицей измерения количества информации является бит – это наименьшая (элементарная) единица.

Байт – основная единица измерения количества информации.

Байт – довольно мелкая единица измерения информации. Например, 1 символ – это 1 байт.

Производные единицы измерения количества информации

1 килобайт (Кб)=1024 байта =2 10 байтов

1 мегабайт (Мб)=1024 килобайта =2 10 килобайтов=2 20 байтов

1 гигабайт (Гб)=1024 мегабайта =2 10 мегабайтов=2 30 байтов

1 терабайт (Гб)=1024 гигабайта =2 10 гигабайтов=2 40 байтов

Запомните, приставка КИЛО в информатике – это не 1000, а 1024, то есть 2 10 .

Методы измерения количества информации

Итак, количество информации в 1 бит вдвое уменьшает неопределенность знаний. Связь же между количеством возможных событий N и количеством информации I определяется формулой Хартли:

Алфавитный подход к измерению количества информации

Вероятностный подход к измерению количества информации

Этот подход применяют, когда возможные события имеют различные вероятности реализации. В этом случае количество информации определяют по формуле Шеннона:

I – количество информации,

N – количество возможных событий,

Pi – вероятность i-го события.

Задача 1.

Имеется 4 равновероятных события (N=4).

Задача 2.

Чему равен информационный объем одного символа русского языка?

В русском языке 32 буквы (буква ё обычно не используется), то есть количество событий будет равно 32. Найдем информационный объем одного символа. I=log2 N=log2 32=5 битов (2 5 =32).

Примечание. Если невозможно найти целую степень числа, то округление производится в большую сторону.

Задача 3.

Чему равен информационный объем одного символа английского языка?

Задача 4.

Световое табло состоит из лампочек, каждая из которых может находиться в одном из двух состояний (“включено” или “выключено”). Какое наименьшее количество лампочек должно находиться на табло, чтобы с его помощью можно было передать 50 различных сигналов?

С помощью N лампочек, каждая из которых может находиться в одном из двух состояний, можно закодировать 2 N сигналов.

2 5 6 , поэтому пяти лампочек недостаточно, а шести хватит. Значит, нужно 6 лампочек.

Задача 5.

Метеостанция ведет наблюдения за влажностью воздуха. Результатом одного измерения является целое число от 0 до 100, которое записывается при помощи минимально возможного количества битов. Станция сделала 80 измерений. Определите информационный объем результатов наблюдений.

В данном случае алфавитом является множество чисел от 0 до 100, всего 101 значение. Поэтому информационный объем результатов одного измерения I=log2101. Но это значение не будет целочисленным, поэтому заменим число 101 ближайшей к нему степенью двойки, большей, чем 101. это число 128=2 7 . Принимаем для одного измерения I=log2128=7 битов. Для 80 измерений общий информационный объем равен 80*7 = 560 битов = 70 байтов.

Задача 6.

Определите количество информации, которое будет получено после подбрасывания несимметричной 4-гранной пирамидки, если делают один бросок.

Пусть при бросании 4-гранной несимметричной пирамидки вероятности отдельных событий будут равны: p1=1/2, p2=1/4, p3=1/8, p4=1/8.

Тогда количество информации, которое будет получено после реализации одного из них, можно вычислить по формуле Шеннона:

I = -[1/2 * log2(1/2) + 1/4 * log2(1/4) + 1/8 * log(1/8) + 1/8 * log(1/8)] = 14/8 битов = 1,75 бита.

Задача 7.

В книге 100 страниц; на каждой странице - 20 строк, в каждой строке - 50 символов. Определите объем информации, содержащийся в книге.

Задача 8.

Оцените информационный объем следующего предложения:

Тяжело в ученье – легко в бою!

Первая задача:
Есть такая формула: I = log2(1/P), где где P - это некая вероятность,
I - кол-во информации.
Дано: Nч = 8; Nб = 24. Найти: Iч = ?
Решение:
1) N = 8 + 24 = 32 - шара всего;
2) Pч = 8/32 = 0,25 - вероятность доставания черного шара;
3) I = log2 (1/0,25) = 2 бита.
Ответ: 2 бита.

Вторая задача:
Опять таки по формуле: I = log2(1/P), где P - это вероятность того, что Андреев получил пятёрку. I - кол-во информации.
Вероятность того, что Андреев получил пятёрку равна: 15/30 = 1/2
Кол-во информации, что Андреев получил пятёрку равно:
log2(1/1/2) = log2(2) = 1 бит

Третья задача:
Крутим ту же формулу, но с другой стороны. В этой задаче нам известно кол-во информации и суммарное кол-во оценок.
За что и возьмём: I = 2 бита, p - некая вероятность того, что ученик получил пятёрку. Тогда:
2 = log2(1/p) - решаем обычное логарифмическое уравнение
log2(4) = log2(1/p)
4 = 1/p
p = 1/4
Но ведь вероятность получения пятёрки рассчитывается как: кол-во пятёрок делённое на суммарное кол-во оценок. Какой из этого вывод? ! Известна вероятность, известно суммарное кол-во оценок - неизвестно кол-во оценок. Всё тривиально просто - нам поможет уравнение с одной неизвестной:
x / 100 = 1/4
Где, как ты уже поняла: x - кол-во пятёрок, 100 - суммарное кол-во оценок и 1/4 наша некая вероятность. Решаем уравнение:
x = 100/4 = 25
Значит, ученик получил 25 пятёрок.

Четвёртая задача:
Давай поэтапно. Если нам известно кол-во информации о подходе первого автобуса, то мы можем найти вероятность подхода этого автобуса. Если мы найдём вероятность подхода первого автобуса, то слёту можно определить вероятность подхода второго автобуса, так как известно, что вероятность подхода второго автобуса в два раза меньше вероятности первого. Ну и последний этап - находим кол-во информации подхода второго автобуса, рас уш нам известна его вероятность.
Решаем.
1) Определяем вероятность подхода первого автобуса:
4 = log2(1/p)
log2(16) = log2(1/p)
16 = 1/p
p = 1/16
2) Определяем вероятность подхода второго автобуса:
(1/16) / 2 = 1/32
3) Определяем кол-во информации подхода второго автобуса:
I = log2(1/(1/32)) = log2(32) = 5 бит
Ответ: 5 бит.

Цели урока: формировать умения и навыки учащихся применять знания по образцу и в изменённой ситуации по изучаемой теме: находить количество информации при решении задач, в условии которых события являются равновероятными и не равновероятными.

Требования к знаниям и умениям:

Программно-дидактическое обеспечение: персональный компьютер, проектор, мультимедийная доска SMART-Board, карточки для опроса учащихся.

Ход урока

I. Постановка целей урока

II. Проверка домашнего задания

  1. Начнём проверку домашнего задания со следующего: давайте выясним, чья вероятность вызова к доске для ответа больше.

/ Для этого учитель проецируем общее количество оценок, которое мог бы получить учащийся на данный момент времени, а также количество оценок каждого ученика.

Ученики производят вычисления самостоятельно и называют результаты. Далее выполнение домашнего задания ученики показывают в порядке убывания полученных вероятностей. Решение задач демонстрируется на доске в слайдовой презентации./

2. Выборочно проводится опрос по карточкам, приготовленным заранее.

Задание: вставьте пропущенные слова.

– События, не имеющие преимущество друг перед другом, называются.

– 1 бит — это количество информации, . неопределенность знаний в два раза.

– I = log2N – количество информации в . событии, где N – это . а I – .

– I = log2(l/p) – количество информации в . событии, где р – это . а вероятность события выражается в. и вычисляется по формуле.

Все остальные учащиеся выполняют кроссворд по основным понятиям приложение 1.

III. Решение задач

1. Решение задач, в условии которых события являются равновероятными

В течении 10 минут ученики выполняют решения задач / задаётся произвольный темп решения, т.о., часть детей решит задач больше, часть меньше в меру своих возможностей

- Чему равно I? Как найти N?

“Вы выходите на следующей остановке?” – спросили человека в автобусе. “Нет”, — ответил он. Сколько информации содержит ответ?

Решение: человек мог ответить только “Да” или “Нет”, т.е. выбрать один ответ из двух возможных. Поэтому N = 2. Значит I = 1 бит (2 = ).

“Петя! Ты пойдешь сегодня в кино?” – спросил я друга. “Да”, – ответил Петя. Сколько информации я получил?

Решение: Петя мог ответить только “Да” или “Нет”, т.е. выбрать один ответ из двух возможных. Поэтому N = 2. значит I = 1 бит (2 = 2 1 ).

Вы подошли к светофору, когда горел желтый свет. После этого загорелся зеленый. Какое количество информации вы при этом получили?

Решение: из двух сигналов (желтого и зеленого) необходимо выбрать один — зеленый. Поэтому N = 2, а I = 1 бит.

Решение: из 4 дорожек необходимо выбрать одну, т.е. N = 4. Значит по формуле I = 2, т.к. 4 = 2 2 .

Пояснение: номер дорожки (3) не влияет на количество информации, так как вероятности событий в этих задачах мы приняли считать одинаковыми.

На железнодорожном вокзале 8 путей отправления поездов. Вам сообщили, что ваш поезд прибывает на четвертый путь. Сколько информации вы получили?

Решение: из 8 путей нужно выбрать один. Поэтому N = 8, а I = 3, т.к. 8 = Пояснение: номер пути (4) не влияет на количество информации, так как вероятности событий в этих задачах мы приняли считать одинаковыми.

Решение: из 16 равновероятных событий нужно выбрать одно. Поэтому N = 16, следовательно, I = 4 (16 = 2 4 ).

Пояснение: события равновероятны, т.к. всех цветов в коробке присутствует по одному.

Была получена телеграмма: “Встречайте, вагон 7”. Известно, что в составе поезда 16 вагонов. Какое количество информации было получено?

Решение: так как из 16 вагонов нужно выбрать один, то N = 16, следовательно, 1 = 4(16 = 2 4 ).

При угадывании целого числа в диапазоне от 1 до N было получено 9 бит информации. Чему равно N?

Решение: N = 2 9 = 512.

Ответ: диапазон чисел имеет значение от 1 до 512.

При угадывании целого числа в некотором диапазоне было получено 8 бит информации. Сколько чисел содержит этот диапазон?

Решение: N = 2 8 = 256.

Ответ: 256 чисел.

Решение: N = 2 4 = 16 этажей.

Пояснение: события равновероятны, т.к. номера этажей не повторяются.

Ответ: 16 этажей.

Решение: N = 2 3 = 8 подъездов.

Пояснение: события равновероятны, т.к. номера подъездов не повторяются.

Ответ: 8 подъездов.

В школьной библиотеке 16 стеллажей с книгами. На каждом стеллаже 8 полок. Библиотекарь сообщил Пете, что нужная ему книга находится на пятом стеллаже на третьей сверху полке. Какое количество информации библиотекарь передал Пете?

Решение: существует 16*8 = 128 вариантов местонахождения книги. Из этого количеств вариантов необходимо выбрать один. Следовательно, N = 128, а I = 7, т.к. 128 = 2 7 .

Загадано слово из 10 букв. Вы просите открыть пятую букву. Вам ее открыли. Сколько информации вы получили?

Решение: N = 10, следовательно, I = log210.

Смотрим по таблице / приложение 2 / и видим, что I = 3,32193 бит.

Решение: N = 6, следовательно, I = log26. Смотрим по таблице и видим, что I = 2,58496 бит.

2. Решение задач, в условии которых события не равновероятны

Запишите формулу на доске для нахождения количества информации в ситуации с не равновероятными событиями. Что означает каждая буква и как выразить одну величину через другую.

В соответствии с уровнем обучаемости 1 группа детей решают более простые задачи №1 – №5, 2 группа -более сложные – №6 – №9.

Вопрос к задачам:

Почему события в задаче не равновероятные? Сравните вероятности событий между собой.

1) I6 = log2(l/p6); 4 = log2(l/p6); 1/рб = 16; p6 = 1/16 – вероятность доставания белого карандаша;

2) рб = ; = ; = = 4 белых карандаша.

Ответ: 4 белых карандаша.

Решение: 1) р4 = = — вероятность получения оценки “5”;

Дано: К = 10; К = 5; Кж = 4; К = 1; N = 20.

Ответ: Iс = 1 бит, Iз = 2 бит, Iж = 2,236 бит, Iк = 4,47213 бит.

Дано: N = 100,I4 = 2 бита.

Ответ: 25 пятерок.

3) К6 = N – К = 32 – 2 = 30 пар белых перчаток.

Ответ: 30 пар белых перчаток.

Дано: Кб = Кс =8, I6 = 2 бита.

  1. Iб = log2(l/p6), 2 = log2(l/p6), 1/р6 = 4, р6 = Vi – вероятность расхода белой банки;
  2. N = = = 32 – банки с краской было всего;

3) Кк = N – К6 – Кс = 32 – 8 – 8 — 16 банок коричневой краски.

Ответ: 16 банок коричневой краски.

Дано: К = 16, I = 2 бита.

1) 1/р6 = 2 I , 1/р6 = 2 2 = 4, р6 = – вероятность доставания белого шара;

Кб = 6 – белых шаров;

3) N = Кч+К; = 18 + 6 = 24 шара было в корзине.

Ответ: 24 шара лежало в корзине.

IV. Итоги урока

Оценка работы класса и отдельных учащихся, отличившихся на уроке.

V. Домашнее задание

Дополнительный материал. 1. Частотный словарь русского языка — словарь вероятностей (частот) появления букв в произвольном тексте – приведен ниже. Определите, какое количество информации несет каждая буква этого словаря.

2. Используя результат решения предыдущей задачи, определите количество информации в слове “компьютер”.

  • Для учеников 1-11 классов и дошкольников
  • Бесплатные сертификаты учителям и участникам

Описание презентации по отдельным слайдам:

Единицы измерения информации. Подходы к определению количества информации

ИЗМЕРЕНИЕ ИНФОРМАЦИИ Вероятностный подход Алфавитный подход ИНФОРМАЦИЯ Подходы к измерению информации по отношению к человеку по отношению к техническим устройствам Знания Последовательность символов, сигналов Через неопределенность знаний с учетом вероятности событий Через количество символов с учетом информационного веса символов

ИЗМЕРЕНИЕ ИНФОРМАЦИИ: вероятностный подход Информация для человека — это знания знание ЗНАНИЕ Информация, которую получает человек, приводит к уменьшению неопределенности знаний незнание

ИЗМЕРЕНИЕ ИНФОРМАЦИИ Сколько равновероятных событий может произойти при бросании равносторонней четырехгранной пирамидки, шестигранного куба? ? ? Во сколько раз уменьшится неопределенность наших знаний при наступлении этих событий?

ИЗМЕРЕНИЕ ИНФОРМАЦИИ Единицей количества информации является 1 бит – величина, уменьшающая неопределенность в два раза. Какое количество информации получено при наступлении события?

ИЗМЕРЕНИЕ ИНФОРМАЦИИ 1 байт = 23 бит = 8 бит 1 Кбайт = 210 байт = 1024 байт 1 Мбайт = 210 Кбайт = 1024 Кбайт 1 Гбайт = 210 Мбайт = 1024 Мбайт 1 Тбайт=210 Гбайт = 1024 Гбайт 1 PB (петабайт) = 210 Tбайт 1 EB (эксабайт) = 210 Пбайт 1 ZB (зеттабайт) = 210 Эбайт 1 YB (йоттабайт) = 210 Збайт

ИЗМЕРЕНИЕ ИНФОРМАЦИИ Какова связь между количеством возможных событий и количеством полученной информации? 1 бит – величина, уменьшающая неопределенность в два раза Количество возможных событийКоличество полученной информации

ИЗМЕРЕНИЕ ИНФОРМАЦИИ: содержательный (вероятностный) подход Для равновероятных событий: N = 2I где N – количество возможных событий, I – количество информации Для событий с различными вероятностями (формула Шеннона): где N – количество возможных событий, I – количество информации, pi – вероятность i-го события

РЕШЕНИЕ ЗАДАЧ Какое количество информации получит второй игрок при игре в крестики-нолики на поле 8х8 после первого хода первого игрока, играющего крестиками? N = 2I 64 = 2I Ответ: 6 бит

Задача Какое количество вопросов достаточно задать вашему собеседнику, чтобы наверняка определить месяц, в котором он родился?

Решение Будем рассматривать 12 месяцев как 12 возможных событий. Если спрашивать о конкретном месяце рождения, то, возможно, придется задать 11 вопросов (если на 11 первых вопросов был получен отрицательный ответ, то 12-й задавать не обязательно, так как он и будет правильным).

Решение По формуле получаем: I = log212  3,6 бит Количество полученных бит информации соответствует количеству заданных вопросов, однако количество вопросов не может быть нецелым числом. Округляем до большего целого числа и получаем ответ: при правильной стратегии необходимо задать не более 4 вопросов.

РЕШЕНИЕ ЗАДАЧ 5. При угадывании целого числа в диапазоне от 1 до N было получено 7 бит информации. Чему равно N? 6. При угадывании целого числа в некотором диапазоне было получено 6 бит информации. Сколько чисел содержит этот диапазон? 7. Какое количество информации о цвете вынутого шарика будет получено, если в непрозрачном пакете хранятся: 25 белых, 25 красных, 25 синих и 25 зеленых шариков? 8. Какое количество вопросов достаточно задать вашему собеседнику, чтобы точно определить день и месяц его рождения?

РЕШЕНИЕ ЗАДАЧ Какое количество информации о цвете вынутого шарика будет получено, если в непрозрачном пакете хранятся: 10 белых, 20 красных, 30 синих и 40 зеленых шариков? Pбел. = 10/100 = 0,1 Pкрасн. = 20/100 = 0,2 Pсин. = 30/100 = 0,3 Pзел. = 40/100 = 0,4 I = – (0,1∙log20,1 + 0,2∙log20,2 + 0,3∙log20,3 + 0,4∙log20,4) ≈ 1,85 бита Ответ: 1,85 бита

РЕШЕНИЕ ЗАДАЧ 7. Какое количество информации о цвете вынутого шарика будет получено, если в непрозрачном пакете хранятся: 30 белых, 30 красных, 30 синих и 10 зеленых шариков? 8. Заполните пропуски числами: 5 Кбайт = __ байт = __ бит __ Кбайт = __ байт = 12288 бит __ Кбайт = __ байт = 213 бит __ Гбайт = 1536 Мбайт = __ Кбайт 512 Кбайт = 2? байт = 2? бит

Позволяет определить количество информации в тексте, отвлекаясь от содержания информации, воспринимая ее как последовательность знаков. Алфавит – множество символов, используемых для записи текста. Мощность алфавита – полное количество символов в алфавите. ИЗМЕРЕНИЕ ИНФОРМАЦИИ: алфавитный подход

Количество информации несет в тексте каждый символ (i), вычисляется из уравнения Хартли: 2i = N, где N — мощность алфавита. i -информационный вес символа. Отсюда следует, что: Количество информации во всем тексте (I), состоящем из K символов, равно произведению информационного веса символа на К: I = i x К. Эту величину можно назвать информационным объемом текста.

Для русского алфавита (без буквы ё): Мощность алфавита (количество равновероятных событий N) = 32, тогда количество информации I, которое несет каждый символ, вычисляется по формуле: ИЗМЕРЕНИЕ ИНФОРМАЦИИ: алфавитный подход 32 = 2I и равно 5 бит. Какое количество информации несет один символ алфавита мощностью 2, 4, 8, 16, 256 символов?

Полученный вывод можно проиллюстрировать следующим образным примером. Представьте себе толстую книгу в 1000 страниц, на всех страницах которой написаны одни единицы (единственный символ используемого алфавита). Сколько информации в ней содержится? Ответ: нисколько, ноль.

Минимальная мощность алфавита Минимальная мощность алфавита, пригодного для передачи информации, равна 2. Такой алфавит называется двоичным алфавитом Информационный вес символа в двоичном алфавите легко определить. Поскольку 2i = 2, то i = 1 бит. Итак, один символ двоичного алфавита несет 1 бит информации. Байт вводится как информационный вес символа из алфавита мощностью 256.

Задача Два текста содержат одинаковое количество символов Первый текст составлен в алфавите мощностью 32 символа, второй — мощностью 64 символа. Во сколько раз отличается количество информации в этих текстах?

Решение В равновероятном приближении информационный объем текста равен произведению числа символов на информационный вес одного символа: 1= K·i. Поскольку оба текста имеют одинаковое число символов (К), то различие информационных объемов определяется только разницей в информативности символов алфавита (i). Найдем i1, для первого алфавита и i2 для второго алфавита: 2^i1 = 32, отсюда i1, = 5 бит; : 2^i2 = 64, отсюда i2= 6 бит. Следовательно, информационные объемы первого и второго текстов будут равны: I1= К·5 бит, I2=К·6 бит. Отсюда следует, что количество информации во втором тексте , больше, чем в первом в 6/5, или в 1,2 раза.

Читайте также: