Какой подход к объяснению понятия информатика информация используется в начальной школе энтропийный

Обновлено: 19.05.2024

При всем многообразии подходов к определению понятия информации, с позиций измерения информации нас интересуют два из них: определение К. Шеннона, применяемое в математической теории информации, и определение А. Н. Колмогорова, применяемое в отраслях информатики, связанных с использованием компьютеров.

По Шеннону, информация — уменьшение неопределенности наших знаний.

Неопределенность некоторого события — это количество возможных исходов данного события.

Так, например, если из колоды карт наугад выбирают карту, то неопределенность равна количеству карт в колоде. При бросании монеты неопределенность равна 2.

Содержательный подход часто называют субъективным, так как разные люди (субъекты) информацию об одном и том же предмете оценивают по-разному.

Но если число исходов не зависит от суждений людей (случай бросания кубика или монеты), то информация о наступлении одного из возможных исходов является объективной.

Если N равно целой степени двойки (2, 4, 8, 16 и т.д.), то вычисления легко произвести "в уме". В противном случае количество информации становится нецелой величиной, и для решения задачи придется воспользоваться таблицей логарифмов либо определять значение логарифма приблизительно (ближайшее целое число, большее).

Вычислить объем информации по формуле: I = К* i .

Единицы измерения информации

Решая различные задачи, человек вынужден использовать информацию об окружающем нас мире. И чем более полно и подробно человеком изучены те или иные явления, тем подчас проще найти ответ на поставленный вопрос. Так, например, знание законов физики позволяет создавать сложные приборы, а для того, чтобы перевести текст на иностранный язык, нужно знать грамматические правила и помнить много слов

Однако иногда возникает ситуация, когда людям сообщают много новых для них сведений (например, на лекции), а информации при этом они практически не получают (в этом нетрудно убедиться во время опроса или контрольной работы). Происходит это оттого, что сама тема в данный момент слушателям не представляется интересной

Если подбросить монету и проследить, какой стороной она упадет, то мы получим определенную информацию. Обе стороны монеты "равноправны", поэтому одинаково вероятно, что выпадет как одна, так и другая сторона. В таких случаях говорят, что событие несет информацию в 1 бит. Если положить в мешок два шарика разного цвета, то, вытащив вслепую один шар, мы также получим информацию о цвете шара в 1 бит. Единица измерения информации называется бит (bit) - что означает двоичная цифра.

В компьютерной технике бит соответствует физическому состоянию носителя информации: намагничено - не намагничено, есть отверстие - нет отверстия. При этом одно состояние принято обозначать цифрой 0, а другое - цифрой 1. Выбор одного из двух возможных вариантов позволяет также различать логические истину и ложь. Последовательностью битов можно закодировать текст, изображение, звук или какую-либо другую информацию. Такой метод представления информации называется двоичным кодированием

В информатике часто используется величина, называемая байтом (byte) и равная 8 битам. И если бит позволяет выбрать один вариант из двух возможных, то байт, соответственно, 1 из 256 (2 8 ). В большинстве современных ЭВМ при кодировании каждому символу соответствует своя последовательность из восьми нулей и единиц, т. е. байт.

Наряду с байтами для измерения количества информации используются более крупные единицы

1 Кбайт (один килобайт) = 2 10 байт = 1024 байта;

1 Мбайт (один мегабайт) = 2 10 Кбайт = 1024 Кбайта;

1 Гбайт (один гигабайт) = 2 10 Мбайт = 1024 Мбайта.

В последнее время в связи с увеличением объёмов обрабатываемой информации входят в употребление такие производные единицы, как

1 Терабайт (Тб) = 1024 Гбайта = 2 40 байта

1 Петабайт (Пб) = 1024 Тбайта = 2 50 байта.

Здесь мы рассмотрим только один, который называется алфавитным подходом

Решение задач на измерение информации

Для решения задач нам понадобится формула, связывающая между собой информационный вес каждого символа, выраженный в битах ( i ), и мощность алфавита (N): N = 2 i ; информационный объем ( I ), количество информации ( К ): I = К* i

Задача 1: Алфавит содержит 32 буквы. Какое количество информации несет одна буква?

32 = 2 i => 2 5 = 2 i => i = 5

Ответ: одна буква несет 5 бит информации.

16 = 2 i => 2 4 = 2 i => i = 4

Ответ: мощность алфавита N = 8.

Следующие задачи для самостоятельного решения.

Задача 6: В книге 100 страниц. На каждой странице 60 строк по 80 символов в строке. Вычислить информационный объем книги.

№4. Для записи текста использовался 256-символьный алфавит. Каждая страница содержит 30 строк по 70 символов в строке. Какой объем информации содержат 5 страниц текста?

№5. Пользователь вводит текст с клавиатуры со скоростью 90 знаков в минуту. Какое количество информации будет содержать текст, который он набирал 15 мин.

№5. Пользователь вводит текст с клавиатуры 10 минут. Какова скорость ввода информации, если информационный объем полученного текста равен 1 Кбайт?

№5. Ученик читает текст со скоростью 250 символов в минуту. При записи текста использовался алфавит, содержащий 64 символа. Какой объем информации получит ученик, если будет непрерывно читать 20 минут?

Тест. Измерение информации.

Выберите один правильный ответ.

  1. За единицу измерения информации в теории кодирования принимается:

1) 1 кг; 2) 1 фут; 3) 1 бар 4) 1 бит; 5) 1 бод.

  1. 1. Алфавит племени Мульти состоит из 64 букв. Какое количество информации несёт одна буква этого алфавита?

1) 8 бит; 2) 8 байт; 3) 6 бит 4) 6 байт; 5) 1 байт.

1) 100; 2) 256; 3) 800; 4) 8; 5) 1.

1) 8; 2) 1; 3) 1; 4) 1000; 5) 1024.

5. Чему равен 1 мегабайт в секунду (1МБ/с)?

1) 1000 килобит в секунду

2) 1000 килобайт в секунду

3) 1024 килобит в секунду

4) 1024 килобайт в секунду

Фамилия, имя___________________________ класс____ Дата__________

Контрольная работа 1 Вариант

1. Сравните (поставьте знак отношения)

1) 200 байт 0,25 Кбайт.

2) 3 байта 24 бита.

3) 1536 бит 1,5 Кбайта.

4) 1000 бит 1 Кбайт.

5) 8192 байта 1 Кбайт.

2. Считая, что каждый символ кодируется одним байтом, оцените информационный объем следующего предложения:

5. Наличием новых знаний и понятностью

  1. 2 х 8 = 16
  2. 6 MULTIPLAY 8 EQUAL 48
  3. Ваня учится в школе
  4. В английском алфавите 26 букв
  5. MY FREND IS SCHOOLBOY

8. Мощность алфавита равна 64. Сколько Кбайт памяти потребуется, чтобы сохранить 128 страниц текста, содержащего в среднем 256 символов на каждой странице?

9. Мощность алфавита равна 256. Сколько Кбайт памяти потребуется, для сохранения 160 страниц текста, содержащего в среднем 192 символов на каждой странице?

Фамилия, имя___________________________ класс____ Дата__________

1. Сравните (поставьте знак отношения)

1) 512 байт 1 Кбайт;

2) 1 Кбайт 1000 байт;

3) 800 байт 1 Кбайт

4) 400 бит 50 байт.

5) 8192 байта 1 Кбайт.

3. Перевод текста с английского на китайский является процессом:

  1. Обработки информации
  2. Хранения информации
  3. Передачи информации
  4. Поиска информации
  5. Не является ни одним из перечисленных процессов

6. Алфавит племени Мульти состоит из 32 букв. Какое количество информации несёт одна буква этого алфавита?

7. Мощность алфавита равна 256. Сколько Кбайт памяти потребуется, для сохранения 160 страниц текста, содержащего в среднем 192 символов на каждой странице?

9. Для записи текста использовался 256 символьный алфавит. Каждая страница содержит 30 строк по 70 символов. Какой объём содержит 5 страниц текста?

-Что такое алфавит, мощность алфавита.

-Что такое информационный вес символа в алфавите.

-Как измерить информационный объем текста с алфавитной точки зрения.

-Что такое байт, килобайт, мегабайт, гигабайт.

-Скорость информационного потока и пропускная способность канала.

Содержательный (семантический) подходк измерению информации

При таком подходе определение бита оказывается достаточно сложным для понимания учащимися даже в старших классах. Поэтому учителю потребуется определённое время для его изложения.

-Единица измерения информации.

Энтропийный подход обычно применяют при обучении в вузе, но частично его можно использовать и в профильном обучении в старшей школе. Этот способ введения понятия информации является наиболее строгим, поэтому учителю следует с ним ознакомиться. Энтропия и количество информации - это два противоположных понятия. Чем больше в системе зашито информации, тем меньше энтропия системы и наоборот. Т.е. количество информации внесенной в систему можно измерять как разность энтропий системы до и после внесения информации.

При компьютерном подходек измерению информации учитель может сразу перейти к описанию представления информации в компьютере в форме двоичного кода. Затем догматически привести утверждение о том, что количество информации равно количеству двоичных цифр (битов) в таком двоичном коде. Следует рассказать учащимся о том, что информацию чаще всего кодируют с помощью последовательности сигналов двух видов, которые характеризуют два состояния: включено или выключено, намагничено или не намагничено, точка и тире и т.п.

36. Роль и место темы "системы счисления" в рамках непрерывного курса информатики в средней школе. Методика изучения темы "системы счисления" в базовом курсе информатики

-Позиционные – непозиционные ССи их основные понятия(алфавит, основание)

-развернутая форма записи числа

-перевод из одной СС в другую

-особенности двоичной арифметики

При изучении темы учитель ставит следующие цели:

-ввести понятие СС

-сформировать понимание различий между СС

-научить переводить числа

-научить выполнять простейшие операции

Для углубленного изучения

-научить осуществлять перевод целых и дробных чисел

-перевод из 8ричной СС в 16тиричную СС

37. Виды заданий по теме "системы счисления" (+ ЕГЭ) Методические рекомендации по решению типовых задач темы "системы счисления"

1) Дано N = 2278, M = 9916. Какое из чисел K, записанных в двоичной системе,

отвечает условию N

-в логическом программировании(Пролог);

-в схематическом программировании(Знакомство с логическими схемами компьютера).

При изучении темы учитель ставит следующие цели:

1. Представить учащимся информацию необходимую для изучения других тем.

2. Овладение школьниками логической культуры.

-научить школьников формализировать высказывания

-выделять существенные высказывания

-научить представлять условия решения в формализированном виде

-преобразовывать логически выражения в соответствии с законами логики

-строить логическую схему устройства в соответствии заданными характеристиками

-находить ошибки в рассуждениях

При изучении данной темы ввыдятся основные понятия алгебры логики(константы, логические операции, логические выражения).

Высказывание-это повествовательное предложение, в котором что то либо утверждается, либо отрицается.

Логические величины- понятия выражаемые словами истина или ложь.

Логическая переменная- символически обозначенная логическая величина.

Логическое выражение- простые или сложные высказывания. Сложные строятся из простых с помошью связок.

Логические операци-конъюнкция, дизъюнкция, эмпликация, эквиваленция, импликация, отрацания).

39. Виды заданий по теме "Основы логики" (+ ЕГЭ) Методические рекомендации по решению задач.

1. Какое логическое выражение равносильно выражению (A \/ B) /\ C

1) A \/ B \/ C 2) A /\ B /\ C 3) (A \/ B) /\ C 4) (A /\ B) \/ C

2. Дан фрагмент таблицы истинности выражения F:

Каким выражением может быть F?

1) X /\ Y /\ Z 2) X \/ Y \/ Z 3) X \/ Y \/ Z 4) X /\ Y /\ Z

3. Перед началом турнира болельщики высказали предположения: 1) Максим победит, а Бил будет второй. 2) Бим будет третий, а Ник первый. 3) Максим будет последним, а Джон будет первым. Когда закончились соревнования, то выяснилось что в каждом высказываение есть что то верное. Кто и какое место занял.

Нажмите, чтобы узнать подробности

Можно выделить следующие подходы к определению информации:

* вероятностный - используется в теории об информации: Информация – это сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые уменьшают имеющуюся о них степень неопределённости и неполноты знаний.

Для человека: Информация – это знания, которые он получает из различных источников с помощью органов чувств.

Вся информация, которую обрабатывает компьютер, представлена двоичным кодом с помощью двух цифр – 0 и 1. Эти два символа 0 и 1 принято называть битами

(от англ. binary digit – двоичный знак)

Бит – наименьшая единица измерения объема информации.

Название Усл. обозн. Соотношение

Байт Байт 1 байт = 23 бит = 8 бит

Килобит Кбит 1Кбит = 210 бит = 1024 бит

КилоБайт Кб 1 Кб = 210 байт = 1024 байт

МегаБайт Мб 1 Мб = 210 Кб = 1024 Кб

ГигаБайт Гб 1 Гб = 210 Мб = 1024 Мб

ТераБайт Тб 1 Тб = 210 Гб = 1024 Гб

Ответ на него зависит от того, что понимать под информацией.

Но поскольку определять информацию можно по-разному, то и способы измерения тоже могут быть разными.

В информатике используются различные подходы к измерению информации:

Содержательный подход к измерению информации.

где N – количество равновероятных событий;

К – количество символов

N – мощность алфавита (количество символов)

i - информационный объем 1 символа

ДВОИЧНОЕ КОДИРОВАНИЕ ИНФОРМАЦИИ

К достоинству двоичной системы счисления относится – простота совершаемых операций, возможность автоматической обработки информации с использованием двух состояний элементов ПК и операцию сдвиг

Кодирование – это операция преобразования знаков или групп знаков одной знаковой системы в знаки или группы знаков другой знаковой системы.

Декодирование – расшифровка кодированных знаков, преобразование кода символа в его изображение

Двоичное кодирование – кодирование информации в виде 0 и 1

Способы кодирования и декодирования информации в компьютере, в первую очередь, зависит от вида информации, а именно, что должно кодироваться:

 символьная информация (буквы, цифры, знаки)

ДВОИЧНОЕ КОДИРОВАНИЕ ЧИСЕЛ

Для записи информации о количестве объектов используются числа.

Числа записываются с использованием особых знаковых систем, которые называют системами счисления.

Система счисления – совокупность приемов и правил записи чисел с помощью определенного набора символов.

Все системы счисления делятся на две большие группы:

Количественное значение каждой цифры числа зависит от того, в каком месте (позиции или разряде) записана та или иная цифра.

Количественное значение цифры числа не зависит от того, в каком месте (позиции или разряде) записана та или иная цифра.

ДВОИЧНОЕ КОДИРОВАНИЕ ТЕКСТА

Кодирование – присвоение каждому символу десятичного кода от 0 до 255 или соответствующего ему двоичного кода от 00000000 до 11111111

Присвоение символу определенного кода – это вопрос соглашения, которое фиксируется в кодовой таблице.

В качестве международного стандарта была принята кодовая таблица ASCII (American Standard Code for Information Interchange) :

Коды с 0 по 32 (первые 33 кода) - коды операций (перевод строки, ввод пробела, т.е. соответствуют функциональным клавишам);

Коды с 33 по 127 – интернациональные, соответствуют символам латинского алфавита, цифрам, знакам арифметических операций, знакам препинания;

Коды с 128 по 255 – национальные, т.е. кодировка национального алфавита.

на 1 символ отводится 1 байт (8 бит), всего можно закодировать 28 = 256 символов

С 1997 года появился новый международный стандарт Unicode, который отводит для кодировки одного символа 2 байта (16 бит), и можно закодировать 65536 различных символов (Unicode включает в себя все существующие, вымершие и искусственно созданные алфавиты мира, множество математических, музыкальных, химических и прочих символов)

В настоящий момент существует пять кодировок кириллицы: КОИ-8, CP1251, CP866, ISO, Mac. Для преобразования текстовых документов из одной кодировки в другую существуют программы, которые называются Конверторы.

ДВОИЧНОЕ КОДИРОВАНИЕ ГРАФИКИ

Кодирование графической информации

Пространственная дискретизация – перевод графического изображения из аналоговой формы в цифровой компьютерный формат путем разбивания изображения на отдельные маленькие фрагменты (точки) где каждому элементу присваивается код цвета.

Пиксель – min участок изображения на экране, заданного цвета

Растровое изображение формируется из отдельных точек - пикселей, каждая из которых может иметь свой цвет. Двоичный код изображения, выводимого на экран храниться в видеопамяти. Кодирование рисунка растровой графики напоминает – мозаику из квадратов, имеющих определенный цвет

Качество кодирования изображения зависит от:

1) размера точки (чем меньше её размер, тем больше кол-во точек в изображении);

2) количества цветов (чем большее кол-во возможных состояний точки, тем качественнее изображение) Палитра цветов – совокупность используемого набора цвета

Качество растрового изображения зависит от:

1) разрешающей способности монитора – кол-во точек по вертикали и горизонтали.

2) используемой палитры цветов (16, 256, 65536 цветов)

3) глубины цвета – количество бит для кодирования цвета точки

Для хранения черно-белого изображения используется 1 бит.

Цветные изображения формируются в соответствии с двоичным кодом цвета, который хранится в видеопамяти. Цветные изображения имеют различную глубину цвета. Цветное изображение на экране формируется за счет смешивания трех базовых цветов – красного, зеленого и синего. Для получения богатой палитры базовым цветам могут быть заданы различные интенсивности.

ДВОИЧНОЕ КОДИРОВАНИЕ ЗВУКА

В аналоговой форме звук представляет собой волну с непрерывно меняющейся амплитудой и частотой. На компьютере работать со звуковыми файлами начали с начала 90-х годов. В основе кодирования звука с использованием ПК лежит – процесс преобразования колебаний воздуха в колебания электрического тока и последующая дискретизация аналогового электрического сигнала. Кодирование и воспроизведение звуковой информации осуществляется с помощью специальных программ (редактор звукозаписи). Качество воспроизведения закодированного звука зависит от – частоты дискретизации и её разрешения (глубины кодирования звука - количество уровней)

Временная дискретизация – способ преобразования звука в цифровую форму путем разбивания звуковой волны на отдельные маленькие временные участки, где амплитуды этих участков квантуются (им присваивается определенное значение).

Это производится с помощью аналого-цифрового преобразователя, размещенного на звуковой плате. Таким образом, непрерывная зависимость амплитуды сигнала от времени заменяется дискретной последовательностью уровней громкости. Современные 16-битные звуковые карты кодируют 65536 различных уровней громкости или 16-битную глубину звука (каждому значению амплитуды звук. сигнала присваивается 16-битный код)

Качество кодирования звука зависит от:

1) глубины кодирования звука - количество уровней звука

2) частоты дискретизации – количество изменений уровня сигнала в единицу времени (как правило, за 1 сек).

N – количество различных уровней сигнала

i – глубина кодирования звука

Информационный объем звуковой информации равен:

где i – глубина звука (бит)

K – частота вещания (качество звука) (Гц) (48 кГц – аудио CD)

t – время звучания (сек)

В последнее время компьютер все чаще используется для работы с видеоинформацией. Простейшей такой работой является просмотр кинофильмов и видеоклипов. Следует четко представлять, что обработка видеоинформации требует очень высокого быстродействия компьютерной системы.

Что представляет собой фильм с точки зрения информатики? Прежде всего, это сочетание звуковой и графической информации. Кроме того, для создания на экране эффекта движения используется дискретная по своей сути технология быстрой смены статических картинок. Исследования показали, что если за одну секунду сменяется более 10-12 кадров, то человеческий глаз воспринимает изменения на них как непрерывные.

Понятие информации является центральным всего курса информатики, однако, в школьных учебниках подход к её определению неоднозначный. В некоторых учебниках определение информации даже не приводится. Одна из причин такого положения - сложность самого понятия ин­формации. Оно относится к числу фундаментальных для всей науки, носит общенаучный, философский характер и является предметом постоянных дискуссий. Из-за этого часть ученых считает, что оно неопределяемое. Информа­ция является центральным понятием и в кибернетике. Именно кибернетика показала, что в окружающем мире существуют три сущности, три основы мироздания: мате­рия, энергия и информация. Человек в ходе своей матери­альной деятельности преобразует материальные объекты, затрачивая энергию и используя информацию о том, как это сделать.

мешает нам рисовать треугольники, доказывать теоремы и решать задачи. Однако на это легко возразить - точку можно поставить на листе бумаги острым карандашом и все её увидят, но вот вряд ли аналогично возможно посту­пить с информацией. Приведем несколько примеров оп­ределения информации в учебной литературе.

Информация - постоянный спутник человека. Это те сведения, которые помогают ориентироваться нам в ок­ружающем мире.

Информация - это произвольная последовательность символов, т.е. любое слово.

Информация - это отражение предметного мира с помощью знаков и сигналов.

Информация - это знания, сведения, которыми об­ладает человек и которые он получает из окружающего мира. (Субъективный подход).

Информация - это содержание последовательности символов (сигналов) из некоторого алфавита. (Кибернети­ческий подход.)

Перечень определений довольно обширный, и как же в таком случае поступить учителю? Рассмотрим не­сколько методических подходов, используемых учителями для определения понятия информации [1]:

1) Субъективный подход. В этом случае следует ис­пользовать метод обучения - катехизическую беседу. Учи­тель задает следующую последовательность вопросов, на которые учащиеся могут легко ответить:

- Расскажите, откуда вы получаете информацию?

- Приведите примеры какой-либо информации, ко­торую вы получили сегодня.

Если услышите ответ, что утром по радио ученик слышал прогноз погоды, то учителю следует подвести уче­ников к выводу: - значит, ты вначале не знал, какая будет погода! Следовательно, получив информацию, ты получил новые знания!

Таким путем можно подвести учеников к пониманию того, что информация для человека - это знания, которые он получает из различных источников. Далее на примерах следует закрепить это определение.

Затем, применяя метод беседы, можно рассмотреть, где эта информация хранится - в памяти человека, в запи­сях на бумаге, на магнитных носителях и пр. Таким обра­зом, можно подвести учащихся к пониманию внутренней и внешней памяти.

Информация в кибернетических системах передаётся в виде некоторой последовательности сигналов разной природы: акустических, световых, электрических и др.

Информационные обмены происходят везде и всюду: ме­жду людьми, животными, техническими устройствами. В последовательности передаваемых сигналов закодирован определённый смысл и содержание.

Из описанных двух подходов первый можно исполь­зовать уже в начальной школе, тогда как второй - в основ­ной и старшей школе. При этом необходимо помнить, что введение понятие информации делается не одномомент­но - следует постепенно расширять представления детей об информации, периодически возвращаясь к её опреде­лению, т.е. использовать метод последовательных при­ближений.

5.3. Энтропийный подход к понятию информа­ции.

Информация и энтропия

Описываемый ниже подход обычно применяют при обучении в вузе, но частично его можно использовать и в профильном обучении в старшей школе. Этот способ вве­дения понятия информации является наиболее строгим, поэтому учителю следует с ним ознакомиться. При изло­жении данной темы следует использовать межпредмет­ные связи: вероятность случайных событий изучается в математике, энтропия - в курсе физики в профильных фи­зико-математических классах.

Учителю можно рекомендовать следующую после-дова-тельность изложения:

Многие события являются случайными и происхо­дят с той или иной вероятностью. На информацию о таких случайных событиях накладываются определённые огра­ничения. Случайные события изучаются в статистической физике.

Чтобы определить степень неопределённости слу­чайного события можно использовать понятие энтропии. Энтропия Н вводится как функция, описывающая меру не­определённости события, имеющего п равновероятных исходов и вычисляется по формуле:

Энтропия является мерой неопределённости случай­ного события и равна средней вероятности всех возмож­ных его исходов. Можно сказать, что энтропия характери­зует степень беспорядка в системе. Энтропия измеряется в битах.

энтропия сложного события, состоящего из несколь­ких независимых событий, равна сумме энтропий от­дельных событий;

наибольшую энтропию имеет событие с равноверо­ятными исходами.

Связь между количеством информации I в сообще­нии о событии и числом равновероятных исходов события п даётся формулой Хартли:

Таким образом, такое определение понятия инфор­мации получает статистический смысл и является опера­ционным определением (т.е. устанавливает способ её из­мерения).

4) Информация равна убыли энтропии:

Таким образом, статистическая интерпретация эн­тропии связана с недостатком информации о состоянии системы. Наибольшая энтропия у системы с полным бес­порядком, и когда наша осведомлённость о её состоянии минимальна. Упорядочение системы (наведение порядка) связано с получением дополнительной информации о сис­теме и с уменьшением энтропии.

В теории информации энтропия характеризует не­определённость в незнании результатов события, которое имеет некоторый набор возможных случайных исходов.

Объективность информации обусловлена тем, что она не зависит от того, кто и как осуществляет выбор, т.е. она одинакова для любого потребителя. Но ценность ин­формации определяет потребитель, поэтому в этом смыс­ле она субъективна.

В теории информации считается, что информация является мерой нашего незнания чего-либо. Как только это знание будет получено, и мы узнаем результат, то инфор­мация, связанная с этим событием, исчезает. Состоявшее­ся событие не несёт информации, так как пропадает его неопределённость (энтропия становится равной нулю). При этом имеется один исход события и п = 1 , тогда по формуле Хартли получаем I = 0.

10) На бытовом уровне понимания информация свя-
зана с нашим знанием, что связано с оценкой её смысла, а
в теории информации она связана с нашим незнанием. В
этом состоит принципиальное различие в понимании ин-
формации на бытовом уровне и на научном.

Разумеется, учителю следует понимать, что и при та­ком подходе одномоментно ввести понятие информации невозможно - необходимо это делать последовательно, неоднократно возвращаясь к трудным элементам темы. Это следует также из того, что и само понятие энтропии является сложным, фундаментальным общенаучным по­нятием.

Закреплять полученные знания по данной теме ре­комендуется при решении задач №№ 4, 7 (стр. 25), 4, 5 (стр. 260), 3, 4 (стр. 271) из учебника: Семакин И.Г. Инфор­матика. Базовый курс. 7-9 классы / И.Г. Семакин, Л.А. За­логова, С.В. Русаков, Л.В. Шестакова. - 2-е изд., испр. и доп. - М.: БИНОМ. Лаборатория знаний, 2005. - 390 с.

5.4. Компьютерный подход к измерению ин­формации

Проблема измерения информации напрямую связа­на с проблемой определения понятия информации, т.к. надо сначала выяснить, что мы собираемся измерять, а потом - как это делать. Например, если опираться на ин­туитивное определение информации, то невозможно вве­сти сколько-нибудь логичное определение количества ин­формации и единицы её измерения. Какой способ лучше выбрать учителю? Что предлагают методисты для выхода из этого противоречия? В методической литературе и учебниках описано несколько подходов к определению информации и её измерению - это: компьютерный, со­держательный (семантический), кибернетический (алфа­витный).

При компьютерном подходе к измерению информа­ции учитель может сразу перейти к описанию представле­ния информации в компьютере в форме двоичного кода. Затем догматически привести утверждение о том, что ко­личество информации равно количеству двоичных цифр (битов) в таком двоичном коде. Следует рассказать уча­щимся о том, что информацию чаще всего кодируют с по­мощью последовательности сигналов двух видов, которые характеризуют два состояния: включено или выключено, намагничено или не намагничено, точка и тире и т.п. При этом обязательно следует напомнить учащимся об азбуке Морзе. Принято обозначать одно из таких состояний циф­рой 0, а другое - цифрой 1. Такое кодирование называется двоичным кодированием, а цифры 0 и 1 называют битами (от сокращенного англ. bit - binary digit - двоичная цифра).

Далее можно рассказать, что в теории информации за единицу количества информации принимают сообще­ние, состоящее из одного символа двухсимвольного алфа­вита. Использование для измерения количества информа­ции алфавитов с другим числом символов можно уподо­бить переходу к более крупным единицам измерения. По­сле введения бита можно перейти к байтам и кратным единицам. При этом следует решить задачи, иллюстри­рующие количество информации в разных источниках.

Компьютерный подход достаточно прост для воспри­ятия, и его можно использовать при обучении в младших дних классах.

5.5. Семантический (содержательный) подход к измерению информации

Для бросания игрового кубика с шестью гранями эта не­определённость уже равна 6.

Неопределённость для вытягивания экзаменационных билетов будет равна 25, если на столе лежало 25 биле­тов.

Если учитель имеет достаточно времени, то полезно обсудить с учащимися следующие понятия: вероятность события, достоверное событие, невозможное событие. Это обязательно следует делать в профильных классах с углублённым изучением информатики.

5.6. Кибернетический (алфавитный) подход к измерению информации

Основным понятием при кибернетическом подходе является понятие алфавита. Алфавит определяется как конечное множество символов, используемых для пред­ставления информации.

Количество информации, которое несёт в тексте ка­ждый символ алфавита, вычисляется по формуле Хартли:

где I - информационный вес символа алфавита;

N - мощность алфавита (число символов в алфавите).

На основании формулы Хартли можно рассчитать ко­личество информации в любом тексте. Если текст содер­жит К штук символов алфавита, то количество информации I определяется произведением числа символов на инфор­мационный вес символа:

Такой способ измерения количества информации еще называют объёмным, так как он напрямую связан с количеством (объёмом) символов в тексте.

После этого рассмотрения следует перейти к изуче­нию других единиц измерения информации, напомнив при этом, что для многих единиц измерения существуют кратные единицы, которые часто оказываются более удобными для употребления. Например, кроме метра есть ещё километр, кроме грамма - килограмм и т.п. Если бит -это основная единица измерения информации, то ещё широко используется байт, который вводится как инфор­мационный вес символа из алфавита мощностью 256. То­гда по формуле Хартли число 256 есть два в восьмой сте­пени: 256 = 2 8 . Тогда отсюда имеем: / = 8 бит. Эти восемь бит принято называть байтом. Таким образом, 1 байт = 8 бит.

поскольку 2 = 1024. В этом состоит принципиальное от­личие десятичных приставок в информатике от обычных десятичных приставок, о чём учителю всегда следует на­поминать учащимся. Тем не менее, часто при приближен­ных вычислениях используют коэффициент 1000.

Задание для студентов: рассчитайте информационный вес символов русского и английского алфавитов.

Закреплять полученные знания по данной теме ре­комендуется при решении задач №№ 4, 6, 7 (стр. 25), 4, 5 (стр. 260), 3, 4, 5 (стр. 271) из учебника: Семакин И.Г. Ин­форматика. Базовый курс. 7-9 классы / И.Г. Семакин и др. - 2-е изд., испр. и доп. - М.: БИНОМ. Лаборатория знаний, 2005. - 390 с.

Также следует решить задачи №№ 2, 3, 10, 11, 12 из учебника: Кушниренко А.Г. Информатика. 7-9 кл.: Учеб. для общеобразоват. учеб. заведений / А.Г. Кушниренко, Г.В. Лебедев, Я.Н. Зайдельман. - 3-е изд.,стереотип. - М.: Дрофа, 2002. -336 с.

Разумеется, описанные выше методические подходы к определению информации и единицы её измерения следует использовать при преподавании в старших клас­сах. В младших и средних классах эти подходы можно ис­пользовать частично, и вводить единицы измерения ин­формации догматически и постепенно, не раскрывая до поры до времени особо их сути. Какой подход выберет учитель, зависит от его опыта, мастерства, уровня подго­товленности учащихся. Но есть смысл, особенно в старших классах и в профильном обучении, знакомить учащихся со всеми из них.

Читайте также: