Какой подход к объяснению понятия информатика информация используется в начальной школе энтропийный
Обновлено: 19.05.2024
При всем многообразии подходов к определению понятия информации, с позиций измерения информации нас интересуют два из них: определение К. Шеннона, применяемое в математической теории информации, и определение А. Н. Колмогорова, применяемое в отраслях информатики, связанных с использованием компьютеров.
По Шеннону, информация — уменьшение неопределенности наших знаний.
Неопределенность некоторого события — это количество возможных исходов данного события.
Так, например, если из колоды карт наугад выбирают карту, то неопределенность равна количеству карт в колоде. При бросании монеты неопределенность равна 2.
Содержательный подход часто называют субъективным, так как разные люди (субъекты) информацию об одном и том же предмете оценивают по-разному.
Но если число исходов не зависит от суждений людей (случай бросания кубика или монеты), то информация о наступлении одного из возможных исходов является объективной.
Если N равно целой степени двойки (2, 4, 8, 16 и т.д.), то вычисления легко произвести "в уме". В противном случае количество информации становится нецелой величиной, и для решения задачи придется воспользоваться таблицей логарифмов либо определять значение логарифма приблизительно (ближайшее целое число, большее).
Вычислить объем информации по формуле: I = К* i .
Единицы измерения информации
Решая различные задачи, человек вынужден использовать информацию об окружающем нас мире. И чем более полно и подробно человеком изучены те или иные явления, тем подчас проще найти ответ на поставленный вопрос. Так, например, знание законов физики позволяет создавать сложные приборы, а для того, чтобы перевести текст на иностранный язык, нужно знать грамматические правила и помнить много слов
Однако иногда возникает ситуация, когда людям сообщают много новых для них сведений (например, на лекции), а информации при этом они практически не получают (в этом нетрудно убедиться во время опроса или контрольной работы). Происходит это оттого, что сама тема в данный момент слушателям не представляется интересной
Если подбросить монету и проследить, какой стороной она упадет, то мы получим определенную информацию. Обе стороны монеты "равноправны", поэтому одинаково вероятно, что выпадет как одна, так и другая сторона. В таких случаях говорят, что событие несет информацию в 1 бит. Если положить в мешок два шарика разного цвета, то, вытащив вслепую один шар, мы также получим информацию о цвете шара в 1 бит. Единица измерения информации называется бит (bit) - что означает двоичная цифра.
В компьютерной технике бит соответствует физическому состоянию носителя информации: намагничено - не намагничено, есть отверстие - нет отверстия. При этом одно состояние принято обозначать цифрой 0, а другое - цифрой 1. Выбор одного из двух возможных вариантов позволяет также различать логические истину и ложь. Последовательностью битов можно закодировать текст, изображение, звук или какую-либо другую информацию. Такой метод представления информации называется двоичным кодированием
В информатике часто используется величина, называемая байтом (byte) и равная 8 битам. И если бит позволяет выбрать один вариант из двух возможных, то байт, соответственно, 1 из 256 (2 8 ). В большинстве современных ЭВМ при кодировании каждому символу соответствует своя последовательность из восьми нулей и единиц, т. е. байт.
Наряду с байтами для измерения количества информации используются более крупные единицы
1 Кбайт (один килобайт) = 2 10 байт = 1024 байта;
1 Мбайт (один мегабайт) = 2 10 Кбайт = 1024 Кбайта;
1 Гбайт (один гигабайт) = 2 10 Мбайт = 1024 Мбайта.
В последнее время в связи с увеличением объёмов обрабатываемой информации входят в употребление такие производные единицы, как
1 Терабайт (Тб) = 1024 Гбайта = 2 40 байта
1 Петабайт (Пб) = 1024 Тбайта = 2 50 байта.
Здесь мы рассмотрим только один, который называется алфавитным подходом
Решение задач на измерение информации
Для решения задач нам понадобится формула, связывающая между собой информационный вес каждого символа, выраженный в битах ( i ), и мощность алфавита (N): N = 2 i ; информационный объем ( I ), количество информации ( К ): I = К* i
Задача 1: Алфавит содержит 32 буквы. Какое количество информации несет одна буква?
32 = 2 i => 2 5 = 2 i => i = 5
Ответ: одна буква несет 5 бит информации.
16 = 2 i => 2 4 = 2 i => i = 4
Ответ: мощность алфавита N = 8.
Следующие задачи для самостоятельного решения.
Задача 6: В книге 100 страниц. На каждой странице 60 строк по 80 символов в строке. Вычислить информационный объем книги.
№4. Для записи текста использовался 256-символьный алфавит. Каждая страница содержит 30 строк по 70 символов в строке. Какой объем информации содержат 5 страниц текста?
№5. Пользователь вводит текст с клавиатуры со скоростью 90 знаков в минуту. Какое количество информации будет содержать текст, который он набирал 15 мин.
№5. Пользователь вводит текст с клавиатуры 10 минут. Какова скорость ввода информации, если информационный объем полученного текста равен 1 Кбайт?
№5. Ученик читает текст со скоростью 250 символов в минуту. При записи текста использовался алфавит, содержащий 64 символа. Какой объем информации получит ученик, если будет непрерывно читать 20 минут?
Тест. Измерение информации.
Выберите один правильный ответ.
- За единицу измерения информации в теории кодирования принимается:
1) 1 кг; 2) 1 фут; 3) 1 бар 4) 1 бит; 5) 1 бод.
- 1. Алфавит племени Мульти состоит из 64 букв. Какое количество информации несёт одна буква этого алфавита?
1) 8 бит; 2) 8 байт; 3) 6 бит 4) 6 байт; 5) 1 байт.
1) 100; 2) 256; 3) 800; 4) 8; 5) 1.
1) 8; 2) 1; 3) 1; 4) 1000; 5) 1024.
5. Чему равен 1 мегабайт в секунду (1МБ/с)?
1) 1000 килобит в секунду
2) 1000 килобайт в секунду
3) 1024 килобит в секунду
4) 1024 килобайт в секунду
Фамилия, имя___________________________ класс____ Дата__________
Контрольная работа 1 Вариант
1. Сравните (поставьте знак отношения)
1) 200 байт 0,25 Кбайт.
2) 3 байта 24 бита.
3) 1536 бит 1,5 Кбайта.
4) 1000 бит 1 Кбайт.
5) 8192 байта 1 Кбайт.
2. Считая, что каждый символ кодируется одним байтом, оцените информационный объем следующего предложения:
5. Наличием новых знаний и понятностью
- 2 х 8 = 16
- 6 MULTIPLAY 8 EQUAL 48
- Ваня учится в школе
- В английском алфавите 26 букв
- MY FREND IS SCHOOLBOY
8. Мощность алфавита равна 64. Сколько Кбайт памяти потребуется, чтобы сохранить 128 страниц текста, содержащего в среднем 256 символов на каждой странице?
9. Мощность алфавита равна 256. Сколько Кбайт памяти потребуется, для сохранения 160 страниц текста, содержащего в среднем 192 символов на каждой странице?
Фамилия, имя___________________________ класс____ Дата__________
1. Сравните (поставьте знак отношения)
1) 512 байт 1 Кбайт;
2) 1 Кбайт 1000 байт;
3) 800 байт 1 Кбайт
4) 400 бит 50 байт.
5) 8192 байта 1 Кбайт.
3. Перевод текста с английского на китайский является процессом:
- Обработки информации
- Хранения информации
- Передачи информации
- Поиска информации
- Не является ни одним из перечисленных процессов
6. Алфавит племени Мульти состоит из 32 букв. Какое количество информации несёт одна буква этого алфавита?
7. Мощность алфавита равна 256. Сколько Кбайт памяти потребуется, для сохранения 160 страниц текста, содержащего в среднем 192 символов на каждой странице?
9. Для записи текста использовался 256 символьный алфавит. Каждая страница содержит 30 строк по 70 символов. Какой объём содержит 5 страниц текста?
-Что такое алфавит, мощность алфавита.
-Что такое информационный вес символа в алфавите.
-Как измерить информационный объем текста с алфавитной точки зрения.
-Что такое байт, килобайт, мегабайт, гигабайт.
-Скорость информационного потока и пропускная способность канала.
Содержательный (семантический) подходк измерению информации
При таком подходе определение бита оказывается достаточно сложным для понимания учащимися даже в старших классах. Поэтому учителю потребуется определённое время для его изложения.
-Единица измерения информации.
Энтропийный подход обычно применяют при обучении в вузе, но частично его можно использовать и в профильном обучении в старшей школе. Этот способ введения понятия информации является наиболее строгим, поэтому учителю следует с ним ознакомиться. Энтропия и количество информации - это два противоположных понятия. Чем больше в системе зашито информации, тем меньше энтропия системы и наоборот. Т.е. количество информации внесенной в систему можно измерять как разность энтропий системы до и после внесения информации.
При компьютерном подходек измерению информации учитель может сразу перейти к описанию представления информации в компьютере в форме двоичного кода. Затем догматически привести утверждение о том, что количество информации равно количеству двоичных цифр (битов) в таком двоичном коде. Следует рассказать учащимся о том, что информацию чаще всего кодируют с помощью последовательности сигналов двух видов, которые характеризуют два состояния: включено или выключено, намагничено или не намагничено, точка и тире и т.п.
36. Роль и место темы "системы счисления" в рамках непрерывного курса информатики в средней школе. Методика изучения темы "системы счисления" в базовом курсе информатики
-Позиционные – непозиционные ССи их основные понятия(алфавит, основание)
-развернутая форма записи числа
-перевод из одной СС в другую
-особенности двоичной арифметики
При изучении темы учитель ставит следующие цели:
-ввести понятие СС
-сформировать понимание различий между СС
-научить переводить числа
-научить выполнять простейшие операции
Для углубленного изучения
-научить осуществлять перевод целых и дробных чисел
-перевод из 8ричной СС в 16тиричную СС
37. Виды заданий по теме "системы счисления" (+ ЕГЭ) Методические рекомендации по решению типовых задач темы "системы счисления"
1) Дано N = 2278, M = 9916. Какое из чисел K, записанных в двоичной системе,
отвечает условию N
-в логическом программировании(Пролог);
-в схематическом программировании(Знакомство с логическими схемами компьютера).
При изучении темы учитель ставит следующие цели:
1. Представить учащимся информацию необходимую для изучения других тем.
2. Овладение школьниками логической культуры.
-научить школьников формализировать высказывания
-выделять существенные высказывания
-научить представлять условия решения в формализированном виде
-преобразовывать логически выражения в соответствии с законами логики
-строить логическую схему устройства в соответствии заданными характеристиками
-находить ошибки в рассуждениях
При изучении данной темы ввыдятся основные понятия алгебры логики(константы, логические операции, логические выражения).
Высказывание-это повествовательное предложение, в котором что то либо утверждается, либо отрицается.
Логические величины- понятия выражаемые словами истина или ложь.
Логическая переменная- символически обозначенная логическая величина.
Логическое выражение- простые или сложные высказывания. Сложные строятся из простых с помошью связок.
Логические операци-конъюнкция, дизъюнкция, эмпликация, эквиваленция, импликация, отрацания).
39. Виды заданий по теме "Основы логики" (+ ЕГЭ) Методические рекомендации по решению задач.
1. Какое логическое выражение равносильно выражению (A \/ B) /\ C
1) A \/ B \/ C 2) A /\ B /\ C 3) (A \/ B) /\ C 4) (A /\ B) \/ C
2. Дан фрагмент таблицы истинности выражения F:
Каким выражением может быть F?
1) X /\ Y /\ Z 2) X \/ Y \/ Z 3) X \/ Y \/ Z 4) X /\ Y /\ Z
3. Перед началом турнира болельщики высказали предположения: 1) Максим победит, а Бил будет второй. 2) Бим будет третий, а Ник первый. 3) Максим будет последним, а Джон будет первым. Когда закончились соревнования, то выяснилось что в каждом высказываение есть что то верное. Кто и какое место занял.
Можно выделить следующие подходы к определению информации:
* вероятностный - используется в теории об информации: Информация – это сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые уменьшают имеющуюся о них степень неопределённости и неполноты знаний.
Для человека: Информация – это знания, которые он получает из различных источников с помощью органов чувств.
Вся информация, которую обрабатывает компьютер, представлена двоичным кодом с помощью двух цифр – 0 и 1. Эти два символа 0 и 1 принято называть битами
(от англ. binary digit – двоичный знак)
Бит – наименьшая единица измерения объема информации.
Название Усл. обозн. Соотношение
Байт Байт 1 байт = 23 бит = 8 бит
Килобит Кбит 1Кбит = 210 бит = 1024 бит
КилоБайт Кб 1 Кб = 210 байт = 1024 байт
МегаБайт Мб 1 Мб = 210 Кб = 1024 Кб
ГигаБайт Гб 1 Гб = 210 Мб = 1024 Мб
ТераБайт Тб 1 Тб = 210 Гб = 1024 Гб
Ответ на него зависит от того, что понимать под информацией.
Но поскольку определять информацию можно по-разному, то и способы измерения тоже могут быть разными.
В информатике используются различные подходы к измерению информации:
Содержательный подход к измерению информации.
где N – количество равновероятных событий;
К – количество символов
N – мощность алфавита (количество символов)
i - информационный объем 1 символа
ДВОИЧНОЕ КОДИРОВАНИЕ ИНФОРМАЦИИ
К достоинству двоичной системы счисления относится – простота совершаемых операций, возможность автоматической обработки информации с использованием двух состояний элементов ПК и операцию сдвиг
Кодирование – это операция преобразования знаков или групп знаков одной знаковой системы в знаки или группы знаков другой знаковой системы.
Декодирование – расшифровка кодированных знаков, преобразование кода символа в его изображение
Двоичное кодирование – кодирование информации в виде 0 и 1
Способы кодирования и декодирования информации в компьютере, в первую очередь, зависит от вида информации, а именно, что должно кодироваться:
символьная информация (буквы, цифры, знаки)
ДВОИЧНОЕ КОДИРОВАНИЕ ЧИСЕЛ
Для записи информации о количестве объектов используются числа.
Числа записываются с использованием особых знаковых систем, которые называют системами счисления.
Система счисления – совокупность приемов и правил записи чисел с помощью определенного набора символов.
Все системы счисления делятся на две большие группы:
Количественное значение каждой цифры числа зависит от того, в каком месте (позиции или разряде) записана та или иная цифра.
Количественное значение цифры числа не зависит от того, в каком месте (позиции или разряде) записана та или иная цифра.
ДВОИЧНОЕ КОДИРОВАНИЕ ТЕКСТА
Кодирование – присвоение каждому символу десятичного кода от 0 до 255 или соответствующего ему двоичного кода от 00000000 до 11111111
Присвоение символу определенного кода – это вопрос соглашения, которое фиксируется в кодовой таблице.
В качестве международного стандарта была принята кодовая таблица ASCII (American Standard Code for Information Interchange) :
Коды с 0 по 32 (первые 33 кода) - коды операций (перевод строки, ввод пробела, т.е. соответствуют функциональным клавишам);
Коды с 33 по 127 – интернациональные, соответствуют символам латинского алфавита, цифрам, знакам арифметических операций, знакам препинания;
Коды с 128 по 255 – национальные, т.е. кодировка национального алфавита.
на 1 символ отводится 1 байт (8 бит), всего можно закодировать 28 = 256 символов
С 1997 года появился новый международный стандарт Unicode, который отводит для кодировки одного символа 2 байта (16 бит), и можно закодировать 65536 различных символов (Unicode включает в себя все существующие, вымершие и искусственно созданные алфавиты мира, множество математических, музыкальных, химических и прочих символов)
В настоящий момент существует пять кодировок кириллицы: КОИ-8, CP1251, CP866, ISO, Mac. Для преобразования текстовых документов из одной кодировки в другую существуют программы, которые называются Конверторы.
ДВОИЧНОЕ КОДИРОВАНИЕ ГРАФИКИ
Кодирование графической информации
Пространственная дискретизация – перевод графического изображения из аналоговой формы в цифровой компьютерный формат путем разбивания изображения на отдельные маленькие фрагменты (точки) где каждому элементу присваивается код цвета.
Пиксель – min участок изображения на экране, заданного цвета
Растровое изображение формируется из отдельных точек - пикселей, каждая из которых может иметь свой цвет. Двоичный код изображения, выводимого на экран храниться в видеопамяти. Кодирование рисунка растровой графики напоминает – мозаику из квадратов, имеющих определенный цвет
Качество кодирования изображения зависит от:
1) размера точки (чем меньше её размер, тем больше кол-во точек в изображении);
2) количества цветов (чем большее кол-во возможных состояний точки, тем качественнее изображение) Палитра цветов – совокупность используемого набора цвета
Качество растрового изображения зависит от:
1) разрешающей способности монитора – кол-во точек по вертикали и горизонтали.
2) используемой палитры цветов (16, 256, 65536 цветов)
3) глубины цвета – количество бит для кодирования цвета точки
Для хранения черно-белого изображения используется 1 бит.
Цветные изображения формируются в соответствии с двоичным кодом цвета, который хранится в видеопамяти. Цветные изображения имеют различную глубину цвета. Цветное изображение на экране формируется за счет смешивания трех базовых цветов – красного, зеленого и синего. Для получения богатой палитры базовым цветам могут быть заданы различные интенсивности.
ДВОИЧНОЕ КОДИРОВАНИЕ ЗВУКА
В аналоговой форме звук представляет собой волну с непрерывно меняющейся амплитудой и частотой. На компьютере работать со звуковыми файлами начали с начала 90-х годов. В основе кодирования звука с использованием ПК лежит – процесс преобразования колебаний воздуха в колебания электрического тока и последующая дискретизация аналогового электрического сигнала. Кодирование и воспроизведение звуковой информации осуществляется с помощью специальных программ (редактор звукозаписи). Качество воспроизведения закодированного звука зависит от – частоты дискретизации и её разрешения (глубины кодирования звука - количество уровней)
Временная дискретизация – способ преобразования звука в цифровую форму путем разбивания звуковой волны на отдельные маленькие временные участки, где амплитуды этих участков квантуются (им присваивается определенное значение).
Это производится с помощью аналого-цифрового преобразователя, размещенного на звуковой плате. Таким образом, непрерывная зависимость амплитуды сигнала от времени заменяется дискретной последовательностью уровней громкости. Современные 16-битные звуковые карты кодируют 65536 различных уровней громкости или 16-битную глубину звука (каждому значению амплитуды звук. сигнала присваивается 16-битный код)
Качество кодирования звука зависит от:
1) глубины кодирования звука - количество уровней звука
2) частоты дискретизации – количество изменений уровня сигнала в единицу времени (как правило, за 1 сек).
N – количество различных уровней сигнала
i – глубина кодирования звука
Информационный объем звуковой информации равен:
где i – глубина звука (бит)
K – частота вещания (качество звука) (Гц) (48 кГц – аудио CD)
t – время звучания (сек)
В последнее время компьютер все чаще используется для работы с видеоинформацией. Простейшей такой работой является просмотр кинофильмов и видеоклипов. Следует четко представлять, что обработка видеоинформации требует очень высокого быстродействия компьютерной системы.
Что представляет собой фильм с точки зрения информатики? Прежде всего, это сочетание звуковой и графической информации. Кроме того, для создания на экране эффекта движения используется дискретная по своей сути технология быстрой смены статических картинок. Исследования показали, что если за одну секунду сменяется более 10-12 кадров, то человеческий глаз воспринимает изменения на них как непрерывные.
Понятие информации является центральным всего курса информатики, однако, в школьных учебниках подход к её определению неоднозначный. В некоторых учебниках определение информации даже не приводится. Одна из причин такого положения - сложность самого понятия информации. Оно относится к числу фундаментальных для всей науки, носит общенаучный, философский характер и является предметом постоянных дискуссий. Из-за этого часть ученых считает, что оно неопределяемое. Информация является центральным понятием и в кибернетике. Именно кибернетика показала, что в окружающем мире существуют три сущности, три основы мироздания: материя, энергия и информация. Человек в ходе своей материальной деятельности преобразует материальные объекты, затрачивая энергию и используя информацию о том, как это сделать.
мешает нам рисовать треугольники, доказывать теоремы и решать задачи. Однако на это легко возразить - точку можно поставить на листе бумаги острым карандашом и все её увидят, но вот вряд ли аналогично возможно поступить с информацией. Приведем несколько примеров определения информации в учебной литературе.
Информация - постоянный спутник человека. Это те сведения, которые помогают ориентироваться нам в окружающем мире.
Информация - это произвольная последовательность символов, т.е. любое слово.
Информация - это отражение предметного мира с помощью знаков и сигналов.
Информация - это знания, сведения, которыми обладает человек и которые он получает из окружающего мира. (Субъективный подход).
Информация - это содержание последовательности символов (сигналов) из некоторого алфавита. (Кибернетический подход.)
Перечень определений довольно обширный, и как же в таком случае поступить учителю? Рассмотрим несколько методических подходов, используемых учителями для определения понятия информации [1]:
1) Субъективный подход. В этом случае следует использовать метод обучения - катехизическую беседу. Учитель задает следующую последовательность вопросов, на которые учащиеся могут легко ответить:
- Расскажите, откуда вы получаете информацию?
- Приведите примеры какой-либо информации, которую вы получили сегодня.
Если услышите ответ, что утром по радио ученик слышал прогноз погоды, то учителю следует подвести учеников к выводу: - значит, ты вначале не знал, какая будет погода! Следовательно, получив информацию, ты получил новые знания!
Таким путем можно подвести учеников к пониманию того, что информация для человека - это знания, которые он получает из различных источников. Далее на примерах следует закрепить это определение.
Затем, применяя метод беседы, можно рассмотреть, где эта информация хранится - в памяти человека, в записях на бумаге, на магнитных носителях и пр. Таким образом, можно подвести учащихся к пониманию внутренней и внешней памяти.
Информация в кибернетических системах передаётся в виде некоторой последовательности сигналов разной природы: акустических, световых, электрических и др.
Информационные обмены происходят везде и всюду: между людьми, животными, техническими устройствами. В последовательности передаваемых сигналов закодирован определённый смысл и содержание.
Из описанных двух подходов первый можно использовать уже в начальной школе, тогда как второй - в основной и старшей школе. При этом необходимо помнить, что введение понятие информации делается не одномоментно - следует постепенно расширять представления детей об информации, периодически возвращаясь к её определению, т.е. использовать метод последовательных приближений.
5.3. Энтропийный подход к понятию информации.
Информация и энтропия
Описываемый ниже подход обычно применяют при обучении в вузе, но частично его можно использовать и в профильном обучении в старшей школе. Этот способ введения понятия информации является наиболее строгим, поэтому учителю следует с ним ознакомиться. При изложении данной темы следует использовать межпредметные связи: вероятность случайных событий изучается в математике, энтропия - в курсе физики в профильных физико-математических классах.
Учителю можно рекомендовать следующую после-дова-тельность изложения:
Многие события являются случайными и происходят с той или иной вероятностью. На информацию о таких случайных событиях накладываются определённые ограничения. Случайные события изучаются в статистической физике.
Чтобы определить степень неопределённости случайного события можно использовать понятие энтропии. Энтропия Н вводится как функция, описывающая меру неопределённости события, имеющего п равновероятных исходов и вычисляется по формуле:
Энтропия является мерой неопределённости случайного события и равна средней вероятности всех возможных его исходов. Можно сказать, что энтропия характеризует степень беспорядка в системе. Энтропия измеряется в битах.
энтропия сложного события, состоящего из нескольких независимых событий, равна сумме энтропий отдельных событий;
наибольшую энтропию имеет событие с равновероятными исходами.
Связь между количеством информации I в сообщении о событии и числом равновероятных исходов события п даётся формулой Хартли:
Таким образом, такое определение понятия информации получает статистический смысл и является операционным определением (т.е. устанавливает способ её измерения).
4) Информация равна убыли энтропии:
Таким образом, статистическая интерпретация энтропии связана с недостатком информации о состоянии системы. Наибольшая энтропия у системы с полным беспорядком, и когда наша осведомлённость о её состоянии минимальна. Упорядочение системы (наведение порядка) связано с получением дополнительной информации о системе и с уменьшением энтропии.
В теории информации энтропия характеризует неопределённость в незнании результатов события, которое имеет некоторый набор возможных случайных исходов.
Объективность информации обусловлена тем, что она не зависит от того, кто и как осуществляет выбор, т.е. она одинакова для любого потребителя. Но ценность информации определяет потребитель, поэтому в этом смысле она субъективна.
В теории информации считается, что информация является мерой нашего незнания чего-либо. Как только это знание будет получено, и мы узнаем результат, то информация, связанная с этим событием, исчезает. Состоявшееся событие не несёт информации, так как пропадает его неопределённость (энтропия становится равной нулю). При этом имеется один исход события и п = 1 , тогда по формуле Хартли получаем I = 0.
10) На бытовом уровне понимания информация свя-
зана с нашим знанием, что связано с оценкой её смысла, а
в теории информации она связана с нашим незнанием. В
этом состоит принципиальное различие в понимании ин-
формации на бытовом уровне и на научном.
Разумеется, учителю следует понимать, что и при таком подходе одномоментно ввести понятие информации невозможно - необходимо это делать последовательно, неоднократно возвращаясь к трудным элементам темы. Это следует также из того, что и само понятие энтропии является сложным, фундаментальным общенаучным понятием.
Закреплять полученные знания по данной теме рекомендуется при решении задач №№ 4, 7 (стр. 25), 4, 5 (стр. 260), 3, 4 (стр. 271) из учебника: Семакин И.Г. Информатика. Базовый курс. 7-9 классы / И.Г. Семакин, Л.А. Залогова, С.В. Русаков, Л.В. Шестакова. - 2-е изд., испр. и доп. - М.: БИНОМ. Лаборатория знаний, 2005. - 390 с.
5.4. Компьютерный подход к измерению информации
Проблема измерения информации напрямую связана с проблемой определения понятия информации, т.к. надо сначала выяснить, что мы собираемся измерять, а потом - как это делать. Например, если опираться на интуитивное определение информации, то невозможно ввести сколько-нибудь логичное определение количества информации и единицы её измерения. Какой способ лучше выбрать учителю? Что предлагают методисты для выхода из этого противоречия? В методической литературе и учебниках описано несколько подходов к определению информации и её измерению - это: компьютерный, содержательный (семантический), кибернетический (алфавитный).
При компьютерном подходе к измерению информации учитель может сразу перейти к описанию представления информации в компьютере в форме двоичного кода. Затем догматически привести утверждение о том, что количество информации равно количеству двоичных цифр (битов) в таком двоичном коде. Следует рассказать учащимся о том, что информацию чаще всего кодируют с помощью последовательности сигналов двух видов, которые характеризуют два состояния: включено или выключено, намагничено или не намагничено, точка и тире и т.п. При этом обязательно следует напомнить учащимся об азбуке Морзе. Принято обозначать одно из таких состояний цифрой 0, а другое - цифрой 1. Такое кодирование называется двоичным кодированием, а цифры 0 и 1 называют битами (от сокращенного англ. bit - binary digit - двоичная цифра).
Далее можно рассказать, что в теории информации за единицу количества информации принимают сообщение, состоящее из одного символа двухсимвольного алфавита. Использование для измерения количества информации алфавитов с другим числом символов можно уподобить переходу к более крупным единицам измерения. После введения бита можно перейти к байтам и кратным единицам. При этом следует решить задачи, иллюстрирующие количество информации в разных источниках.
Компьютерный подход достаточно прост для восприятия, и его можно использовать при обучении в младших дних классах.
5.5. Семантический (содержательный) подход к измерению информации
Для бросания игрового кубика с шестью гранями эта неопределённость уже равна 6.
Неопределённость для вытягивания экзаменационных билетов будет равна 25, если на столе лежало 25 билетов.
Если учитель имеет достаточно времени, то полезно обсудить с учащимися следующие понятия: вероятность события, достоверное событие, невозможное событие. Это обязательно следует делать в профильных классах с углублённым изучением информатики.
5.6. Кибернетический (алфавитный) подход к измерению информации
Основным понятием при кибернетическом подходе является понятие алфавита. Алфавит определяется как конечное множество символов, используемых для представления информации.
Количество информации, которое несёт в тексте каждый символ алфавита, вычисляется по формуле Хартли:
где I - информационный вес символа алфавита;
N - мощность алфавита (число символов в алфавите).
На основании формулы Хартли можно рассчитать количество информации в любом тексте. Если текст содержит К штук символов алфавита, то количество информации I определяется произведением числа символов на информационный вес символа:
Такой способ измерения количества информации еще называют объёмным, так как он напрямую связан с количеством (объёмом) символов в тексте.
После этого рассмотрения следует перейти к изучению других единиц измерения информации, напомнив при этом, что для многих единиц измерения существуют кратные единицы, которые часто оказываются более удобными для употребления. Например, кроме метра есть ещё километр, кроме грамма - килограмм и т.п. Если бит -это основная единица измерения информации, то ещё широко используется байт, который вводится как информационный вес символа из алфавита мощностью 256. Тогда по формуле Хартли число 256 есть два в восьмой степени: 256 = 2 8 . Тогда отсюда имеем: / = 8 бит. Эти восемь бит принято называть байтом. Таким образом, 1 байт = 8 бит.
поскольку 2 = 1024. В этом состоит принципиальное отличие десятичных приставок в информатике от обычных десятичных приставок, о чём учителю всегда следует напоминать учащимся. Тем не менее, часто при приближенных вычислениях используют коэффициент 1000.
Задание для студентов: рассчитайте информационный вес символов русского и английского алфавитов.
Закреплять полученные знания по данной теме рекомендуется при решении задач №№ 4, 6, 7 (стр. 25), 4, 5 (стр. 260), 3, 4, 5 (стр. 271) из учебника: Семакин И.Г. Информатика. Базовый курс. 7-9 классы / И.Г. Семакин и др. - 2-е изд., испр. и доп. - М.: БИНОМ. Лаборатория знаний, 2005. - 390 с.
Также следует решить задачи №№ 2, 3, 10, 11, 12 из учебника: Кушниренко А.Г. Информатика. 7-9 кл.: Учеб. для общеобразоват. учеб. заведений / А.Г. Кушниренко, Г.В. Лебедев, Я.Н. Зайдельман. - 3-е изд.,стереотип. - М.: Дрофа, 2002. -336 с.
Разумеется, описанные выше методические подходы к определению информации и единицы её измерения следует использовать при преподавании в старших классах. В младших и средних классах эти подходы можно использовать частично, и вводить единицы измерения информации догматически и постепенно, не раскрывая до поры до времени особо их сути. Какой подход выберет учитель, зависит от его опыта, мастерства, уровня подготовленности учащихся. Но есть смысл, особенно в старших классах и в профильном обучении, знакомить учащихся со всеми из них.
Читайте также:
- Каким способом отображают информацию на картах 7 класс кратко
- Ты уже знаешь что термин экономика имеет несколько значений обществознание 7 класс кратко
- План мероприятий по подготовке к осенне зимнему периоду в школе
- Проект приобщение детей к истокам татарской народной культуры в доу по фгос
- Какую иглу и какие нитки нужно выбрать для выполнения подшивания края кратко