Сколько информации содержит сообщение о том что собеседование проходит в одном из 32 кабинетов

Обновлено: 05.07.2024

  • Для учеников 1-11 классов и дошкольников
  • Бесплатные сертификаты учителям и участникам

Описание презентации по отдельным слайдам:

Единицы измерения информации. Подходы к определению количества информации

ИЗМЕРЕНИЕ ИНФОРМАЦИИ Вероятностный подход Алфавитный подход ИНФОРМАЦИЯ Подходы к измерению информации по отношению к человеку по отношению к техническим устройствам Знания Последовательность символов, сигналов Через неопределенность знаний с учетом вероятности событий Через количество символов с учетом информационного веса символов

ИЗМЕРЕНИЕ ИНФОРМАЦИИ: вероятностный подход Информация для человека — это знания знание ЗНАНИЕ Информация, которую получает человек, приводит к уменьшению неопределенности знаний незнание

ИЗМЕРЕНИЕ ИНФОРМАЦИИ Сколько равновероятных событий может произойти при бросании равносторонней четырехгранной пирамидки, шестигранного куба? ? ? Во сколько раз уменьшится неопределенность наших знаний при наступлении этих событий?

ИЗМЕРЕНИЕ ИНФОРМАЦИИ Единицей количества информации является 1 бит – величина, уменьшающая неопределенность в два раза. Какое количество информации получено при наступлении события?

ИЗМЕРЕНИЕ ИНФОРМАЦИИ 1 байт = 23 бит = 8 бит 1 Кбайт = 210 байт = 1024 байт 1 Мбайт = 210 Кбайт = 1024 Кбайт 1 Гбайт = 210 Мбайт = 1024 Мбайт 1 Тбайт=210 Гбайт = 1024 Гбайт 1 PB (петабайт) = 210 Tбайт 1 EB (эксабайт) = 210 Пбайт 1 ZB (зеттабайт) = 210 Эбайт 1 YB (йоттабайт) = 210 Збайт

ИЗМЕРЕНИЕ ИНФОРМАЦИИ Какова связь между количеством возможных событий и количеством полученной информации? 1 бит – величина, уменьшающая неопределенность в два раза Количество возможных событийКоличество полученной информации

ИЗМЕРЕНИЕ ИНФОРМАЦИИ: содержательный (вероятностный) подход Для равновероятных событий: N = 2I где N – количество возможных событий, I – количество информации Для событий с различными вероятностями (формула Шеннона): где N – количество возможных событий, I – количество информации, pi – вероятность i-го события

РЕШЕНИЕ ЗАДАЧ Какое количество информации получит второй игрок при игре в крестики-нолики на поле 8х8 после первого хода первого игрока, играющего крестиками? N = 2I 64 = 2I Ответ: 6 бит

Задача Какое количество вопросов достаточно задать вашему собеседнику, чтобы наверняка определить месяц, в котором он родился?

Решение Будем рассматривать 12 месяцев как 12 возможных событий. Если спрашивать о конкретном месяце рождения, то, возможно, придется задать 11 вопросов (если на 11 первых вопросов был получен отрицательный ответ, то 12-й задавать не обязательно, так как он и будет правильным).

Решение По формуле получаем: I = log212  3,6 бит Количество полученных бит информации соответствует количеству заданных вопросов, однако количество вопросов не может быть нецелым числом. Округляем до большего целого числа и получаем ответ: при правильной стратегии необходимо задать не более 4 вопросов.

РЕШЕНИЕ ЗАДАЧ 5. При угадывании целого числа в диапазоне от 1 до N было получено 7 бит информации. Чему равно N? 6. При угадывании целого числа в некотором диапазоне было получено 6 бит информации. Сколько чисел содержит этот диапазон? 7. Какое количество информации о цвете вынутого шарика будет получено, если в непрозрачном пакете хранятся: 25 белых, 25 красных, 25 синих и 25 зеленых шариков? 8. Какое количество вопросов достаточно задать вашему собеседнику, чтобы точно определить день и месяц его рождения?

РЕШЕНИЕ ЗАДАЧ Какое количество информации о цвете вынутого шарика будет получено, если в непрозрачном пакете хранятся: 10 белых, 20 красных, 30 синих и 40 зеленых шариков? Pбел. = 10/100 = 0,1 Pкрасн. = 20/100 = 0,2 Pсин. = 30/100 = 0,3 Pзел. = 40/100 = 0,4 I = – (0,1∙log20,1 + 0,2∙log20,2 + 0,3∙log20,3 + 0,4∙log20,4) ≈ 1,85 бита Ответ: 1,85 бита

РЕШЕНИЕ ЗАДАЧ 7. Какое количество информации о цвете вынутого шарика будет получено, если в непрозрачном пакете хранятся: 30 белых, 30 красных, 30 синих и 10 зеленых шариков? 8. Заполните пропуски числами: 5 Кбайт = __ байт = __ бит __ Кбайт = __ байт = 12288 бит __ Кбайт = __ байт = 213 бит __ Гбайт = 1536 Мбайт = __ Кбайт 512 Кбайт = 2? байт = 2? бит

Позволяет определить количество информации в тексте, отвлекаясь от содержания информации, воспринимая ее как последовательность знаков. Алфавит – множество символов, используемых для записи текста. Мощность алфавита – полное количество символов в алфавите. ИЗМЕРЕНИЕ ИНФОРМАЦИИ: алфавитный подход

Количество информации несет в тексте каждый символ (i), вычисляется из уравнения Хартли: 2i = N, где N — мощность алфавита. i -информационный вес символа. Отсюда следует, что: Количество информации во всем тексте (I), состоящем из K символов, равно произведению информационного веса символа на К: I = i x К. Эту величину можно назвать информационным объемом текста.

Для русского алфавита (без буквы ё): Мощность алфавита (количество равновероятных событий N) = 32, тогда количество информации I, которое несет каждый символ, вычисляется по формуле: ИЗМЕРЕНИЕ ИНФОРМАЦИИ: алфавитный подход 32 = 2I и равно 5 бит. Какое количество информации несет один символ алфавита мощностью 2, 4, 8, 16, 256 символов?

Полученный вывод можно проиллюстрировать следующим образным примером. Представьте себе толстую книгу в 1000 страниц, на всех страницах которой написаны одни единицы (единственный символ используемого алфавита). Сколько информации в ней содержится? Ответ: нисколько, ноль.

Минимальная мощность алфавита Минимальная мощность алфавита, пригодного для передачи информации, равна 2. Такой алфавит называется двоичным алфавитом Информационный вес символа в двоичном алфавите легко определить. Поскольку 2i = 2, то i = 1 бит. Итак, один символ двоичного алфавита несет 1 бит информации. Байт вводится как информационный вес символа из алфавита мощностью 256.

Задача Два текста содержат одинаковое количество символов Первый текст составлен в алфавите мощностью 32 символа, второй — мощностью 64 символа. Во сколько раз отличается количество информации в этих текстах?

Решение В равновероятном приближении информационный объем текста равен произведению числа символов на информационный вес одного символа: 1= K·i. Поскольку оба текста имеют одинаковое число символов (К), то различие информационных объемов определяется только разницей в информативности символов алфавита (i). Найдем i1, для первого алфавита и i2 для второго алфавита: 2^i1 = 32, отсюда i1, = 5 бит; : 2^i2 = 64, отсюда i2= 6 бит. Следовательно, информационные объемы первого и второго текстов будут равны: I1= К·5 бит, I2=К·6 бит. Отсюда следует, что количество информации во втором тексте , больше, чем в первом в 6/5, или в 1,2 раза.

Ответ: 3 бит.

Ответ: 2 бит.

Ответ: 4 бит.

4) Для проведения экзамена использовалось 32 билета, какое количество информации получить студент при вытягивании одного из 32 билетов.

Ответ: 5 бит.

Ответ: минимальная длина последовательности должна содержать 6 букв.

Ответ: 8 лампочек.

7) Загадано число из промежутка от 32 до 64. Какое количество вопросов необходимо задать для угадывания числа? (Задача решается по алгоритму, предложенному в задачи 5. Однако сначала необходимо вычислить количество возможных событий. Так как загадали число из диапазона от 32 до 64, то для того чтобы вычислить N необходимо N=64-32=32 равновероятных события).

Ответ: 5 вопросов.

9) При угадывании целого числа в некотором диапазоне было получено 7 бит информации. Сколько чисел содержит этот диапазон?

Ответ: 128 чисел

10) Шахматная доска состоит из 64 полей: 8 столбцов на 8 строк. Какое минимальное количество бит потребуется для кодирования координат одного шахматного поля?

  • Для учеников 1-11 классов и дошкольников
  • Бесплатные сертификаты учителям и участникам

Описание презентации по отдельным слайдам:

Единицы измерения информации. Подходы к определению количества информации

ИЗМЕРЕНИЕ ИНФОРМАЦИИ Вероятностный подход Алфавитный подход ИНФОРМАЦИЯ Подходы к измерению информации по отношению к человеку по отношению к техническим устройствам Знания Последовательность символов, сигналов Через неопределенность знаний с учетом вероятности событий Через количество символов с учетом информационного веса символов

ИЗМЕРЕНИЕ ИНФОРМАЦИИ: вероятностный подход Информация для человека — это знания знание ЗНАНИЕ Информация, которую получает человек, приводит к уменьшению неопределенности знаний незнание

ИЗМЕРЕНИЕ ИНФОРМАЦИИ Сколько равновероятных событий может произойти при бросании равносторонней четырехгранной пирамидки, шестигранного куба? ? ? Во сколько раз уменьшится неопределенность наших знаний при наступлении этих событий?

ИЗМЕРЕНИЕ ИНФОРМАЦИИ Единицей количества информации является 1 бит – величина, уменьшающая неопределенность в два раза. Какое количество информации получено при наступлении события?

ИЗМЕРЕНИЕ ИНФОРМАЦИИ 1 байт = 23 бит = 8 бит 1 Кбайт = 210 байт = 1024 байт 1 Мбайт = 210 Кбайт = 1024 Кбайт 1 Гбайт = 210 Мбайт = 1024 Мбайт 1 Тбайт=210 Гбайт = 1024 Гбайт 1 PB (петабайт) = 210 Tбайт 1 EB (эксабайт) = 210 Пбайт 1 ZB (зеттабайт) = 210 Эбайт 1 YB (йоттабайт) = 210 Збайт

ИЗМЕРЕНИЕ ИНФОРМАЦИИ Какова связь между количеством возможных событий и количеством полученной информации? 1 бит – величина, уменьшающая неопределенность в два раза Количество возможных событийКоличество полученной информации

ИЗМЕРЕНИЕ ИНФОРМАЦИИ: содержательный (вероятностный) подход Для равновероятных событий: N = 2I где N – количество возможных событий, I – количество информации Для событий с различными вероятностями (формула Шеннона): где N – количество возможных событий, I – количество информации, pi – вероятность i-го события

РЕШЕНИЕ ЗАДАЧ Какое количество информации получит второй игрок при игре в крестики-нолики на поле 8х8 после первого хода первого игрока, играющего крестиками? N = 2I 64 = 2I Ответ: 6 бит

Задача Какое количество вопросов достаточно задать вашему собеседнику, чтобы наверняка определить месяц, в котором он родился?

Решение Будем рассматривать 12 месяцев как 12 возможных событий. Если спрашивать о конкретном месяце рождения, то, возможно, придется задать 11 вопросов (если на 11 первых вопросов был получен отрицательный ответ, то 12-й задавать не обязательно, так как он и будет правильным).

Решение По формуле получаем: I = log212  3,6 бит Количество полученных бит информации соответствует количеству заданных вопросов, однако количество вопросов не может быть нецелым числом. Округляем до большего целого числа и получаем ответ: при правильной стратегии необходимо задать не более 4 вопросов.

РЕШЕНИЕ ЗАДАЧ 5. При угадывании целого числа в диапазоне от 1 до N было получено 7 бит информации. Чему равно N? 6. При угадывании целого числа в некотором диапазоне было получено 6 бит информации. Сколько чисел содержит этот диапазон? 7. Какое количество информации о цвете вынутого шарика будет получено, если в непрозрачном пакете хранятся: 25 белых, 25 красных, 25 синих и 25 зеленых шариков? 8. Какое количество вопросов достаточно задать вашему собеседнику, чтобы точно определить день и месяц его рождения?

РЕШЕНИЕ ЗАДАЧ Какое количество информации о цвете вынутого шарика будет получено, если в непрозрачном пакете хранятся: 10 белых, 20 красных, 30 синих и 40 зеленых шариков? Pбел. = 10/100 = 0,1 Pкрасн. = 20/100 = 0,2 Pсин. = 30/100 = 0,3 Pзел. = 40/100 = 0,4 I = – (0,1∙log20,1 + 0,2∙log20,2 + 0,3∙log20,3 + 0,4∙log20,4) ≈ 1,85 бита Ответ: 1,85 бита

РЕШЕНИЕ ЗАДАЧ 7. Какое количество информации о цвете вынутого шарика будет получено, если в непрозрачном пакете хранятся: 30 белых, 30 красных, 30 синих и 10 зеленых шариков? 8. Заполните пропуски числами: 5 Кбайт = __ байт = __ бит __ Кбайт = __ байт = 12288 бит __ Кбайт = __ байт = 213 бит __ Гбайт = 1536 Мбайт = __ Кбайт 512 Кбайт = 2? байт = 2? бит

Позволяет определить количество информации в тексте, отвлекаясь от содержания информации, воспринимая ее как последовательность знаков. Алфавит – множество символов, используемых для записи текста. Мощность алфавита – полное количество символов в алфавите. ИЗМЕРЕНИЕ ИНФОРМАЦИИ: алфавитный подход

Количество информации несет в тексте каждый символ (i), вычисляется из уравнения Хартли: 2i = N, где N — мощность алфавита. i -информационный вес символа. Отсюда следует, что: Количество информации во всем тексте (I), состоящем из K символов, равно произведению информационного веса символа на К: I = i x К. Эту величину можно назвать информационным объемом текста.

Для русского алфавита (без буквы ё): Мощность алфавита (количество равновероятных событий N) = 32, тогда количество информации I, которое несет каждый символ, вычисляется по формуле: ИЗМЕРЕНИЕ ИНФОРМАЦИИ: алфавитный подход 32 = 2I и равно 5 бит. Какое количество информации несет один символ алфавита мощностью 2, 4, 8, 16, 256 символов?

Полученный вывод можно проиллюстрировать следующим образным примером. Представьте себе толстую книгу в 1000 страниц, на всех страницах которой написаны одни единицы (единственный символ используемого алфавита). Сколько информации в ней содержится? Ответ: нисколько, ноль.

Минимальная мощность алфавита Минимальная мощность алфавита, пригодного для передачи информации, равна 2. Такой алфавит называется двоичным алфавитом Информационный вес символа в двоичном алфавите легко определить. Поскольку 2i = 2, то i = 1 бит. Итак, один символ двоичного алфавита несет 1 бит информации. Байт вводится как информационный вес символа из алфавита мощностью 256.

Задача Два текста содержат одинаковое количество символов Первый текст составлен в алфавите мощностью 32 символа, второй — мощностью 64 символа. Во сколько раз отличается количество информации в этих текстах?

Решение В равновероятном приближении информационный объем текста равен произведению числа символов на информационный вес одного символа: 1= K·i. Поскольку оба текста имеют одинаковое число символов (К), то различие информационных объемов определяется только разницей в информативности символов алфавита (i). Найдем i1, для первого алфавита и i2 для второго алфавита: 2^i1 = 32, отсюда i1, = 5 бит; : 2^i2 = 64, отсюда i2= 6 бит. Следовательно, информационные объемы первого и второго текстов будут равны: I1= К·5 бит, I2=К·6 бит. Отсюда следует, что количество информации во втором тексте , больше, чем в первом в 6/5, или в 1,2 раза.

1 бит – количество информации, уменьшающее неопределенность знаний вдвое. Задачи по теме связаны с использованием формулы Р. Хартли:

i = log2N или 2 i = N,

где i – количество информации, N – количество равновероятных исходов события.

Возможны два варианта условий задач:

1) дано N, найти i;

дано i, найти N.

3. При угадывании целого числа в некотором диапазоне было получено 8 бит информации. Сколько чисел содержал этот диапазон?

Поскольку 32= 2 5 , следовательно, i = 5 бит.

log26 + log26 = 2,585 + 2,585 = 5,17 (бит)

Но возможен и такой путь рассуждения. Представьте себе, что вы наблюдаете за розыгрышем лотереи. Выбор первого шара производится из 32 шаров в барабане. Результат несет 5 бит информации. Но 2-й шар будет выбираться уже из 31 номера, 3-й - из 30 номеров, 4-й - из 29. Значит, количество информации, которое несет 2-й номер, находится из уравнения:

2 i = 31, отсюда i= 4,95420бита.

Для 3-го номера: 2'= 30;i = 4,90689бита.

Для 4-го номера: 2'= 29; i= 4,85798 бита.

В сумме получаем: 5 + 4,95420 + 4,90689 + 4,85798 = 19,71907 бита.

1 бит – количество информации, уменьшающее неопределенность знаний вдвое. Задачи по теме связаны с использованием формулы Р. Хартли:

i = log2N или 2 i = N,

где i – количество информации, N – количество равновероятных исходов события.

Возможны два варианта условий задач:

1) дано N, найти i;

дано i, найти N.

3. При угадывании целого числа в некотором диапазоне было получено 8 бит информации. Сколько чисел содержал этот диапазон?

Поскольку 32= 2 5 , следовательно, i = 5 бит.

log26 + log26 = 2,585 + 2,585 = 5,17 (бит)

Но возможен и такой путь рассуждения. Представьте себе, что вы наблюдаете за розыгрышем лотереи. Выбор первого шара производится из 32 шаров в барабане. Результат несет 5 бит информации. Но 2-й шар будет выбираться уже из 31 номера, 3-й - из 30 номеров, 4-й - из 29. Значит, количество информации, которое несет 2-й номер, находится из уравнения:

2 i = 31, отсюда i= 4,95420бита.

Для 3-го номера: 2'= 30;i = 4,90689бита.

Для 4-го номера: 2'= 29; i= 4,85798 бита.

В сумме получаем: 5 + 4,95420 + 4,90689 + 4,85798 = 19,71907 бита.

Читайте также: