Информация ее представление и измерение кратко

Обновлено: 07.07.2024

Понятие "информация" имеет различные трактовки в разных предметных областях. Например, информация может пониматься как:

· абстракция, абстрактная модель рассматриваемой системы (в математике);

· сигналы для управления, приспособления рассматриваемой системы (в кибернетике);

· мера хаоса в рассматриваемой системе (в термодинамике);

· вероятность выбора в рассматриваемой системе (в теории вероятностей);

· мера разнообразия в рассматриваемой системе (в биологии) и др.

Рассмотрим это фундаментальное понятие информатики на основе понятия "алфавит" ("алфавитный", формальный подход). Дадим формальное определение алфавита.

Алфавит – конечное множество различных знаков, символов, для которых определена операция конкатенации (приписывания, присоединения символа к символу или цепочке символов); с ее помощью по определенным правилам соединения символов и слов можно получать слова (цепочки знаков) и словосочетания (цепочки слов) в этом алфавите (над этим алфавитом).

Буквой или знаком называется любой элемент x алфавита X, где . Понятие знака неразрывно связано с тем, что им обозначается ("со смыслом"), они вместе могут рассматриваться как пара элементов (x, y), где x – сам знак, а y – обозначаемое этим знаком.

Пример. Примеры алфавитов: множество из десяти цифр, множество из знаков русского языка, точка и тире в азбуке Морзе и др. В алфавите цифр знак 5 связан с понятием "быть в количестве пяти элементов".

Конечная последовательность букв алфавита называется словом в алфавите (или над алфавитом).

Длиной |p| некоторого слова p над алфавитом Х называется число составляющих его букв.

Слово (обозначаемое символом Ø) имеющее нулевую длину, называется пустым словом: |Ø| = 0.

Множество различных слов над алфавитом X обозначим через S(X) и назовем словарным запасом (словарем) алфавита (над алфавитом) X.

В отличие от конечного алфавита, словарный запас может быть и бесконечным.

В алфавите должен быть определен порядок следования букв (порядок типа "предыдущий элемент – последующий элемент"), то есть любой алфавит имеет упорядоченный вид X = 1, x2, …, xn> .

Таким образом, алфавит должен позволять решать задачу лексикографического (алфавитного) упорядочивания, или задачу расположения слов над этим алфавитом, в соответствии с порядком, определенным в алфавите (то есть по символам алфавита).

Информация по отношению к источнику или приемнику бывает трех типов: входная, выходная и внутренняя.

Информация по отношению к конечному результату бывает исходная, промежуточная и результирующая.

Информация по ее изменчивости бывает постоянная, переменная и смешанная.

Информация по стадии ее использования бывает первичная и вторичная.

Информация по ее полноте бывает избыточная, достаточная и недостаточная.

Информация по доступу к ней бывает открытая и закрытая.

Есть и другие типы классификации информации.

Пример. В философском аспекте информация делится на мировоззренческую, эстетическую, религиозную, научную, бытовую, техническую, экономическую, технологическую.

Основные свойства информации:

1 бит (binary digit – двоичное число) = 0 или 1,

1 килобайт (1Кб) = 2 13 бит,

1 мегабайт (1Мб) = 2 23 бит,

1 гигабайт (1Гб) = 2 33 бит,

1 терабайт (1Тб) = 2 43 бит,

1 петабайт (1Пб) = 2 53 бит,

1 эксабайт (1Эб) = 2 63 бит.

Пример. Найти неизвестные х и у, если верны соотношения:

128 y (К) = 32 x (бит);

2 x (М) = 2 y (байт).

Выравниваем единицы измерения информации:

2 7y (K) = 2 7y+13 (бит);

2 x (M) = 2 x+20 (байт).

Подставляя в уравнения и отбрасывая размерности информации, получаем:

Отсюда получаем систему двух алгебраических уравнений:

или, решая эту систему, окончательно получаем, x = –76,5, у = –56,5.

Для измерения информации используются различные подходы и методы, например, с использованием меры информации по Р. Хартли и К. Шеннону.

Мера информации – критерий оценки количества информации. Обычно она задана некоторой неотрицательной функцией, определенной на множестве событий и являющейся аддитивной, то есть мера конечного объединения событий (множеств) равна сумме мер каждого события.

Рассмотрим различные меры информации.

Возьмем меру Р. Хартли. Пусть известны N состояний системы S (N опытов с различными, равновозможными, последовательными состояниями системы). Если каждое состояние системы закодировать двоичными кодами, то длину кода d необходимо выбрать так, чтобы число всех различных комбинаций было бы не меньше, чем N:

Логарифмируя это неравенство, можно записать:

Наименьшее решение этого неравенства или мера разнообразия множества состояний системы задается формулой Р. Хартли:

Пример. Чтобы определить состояние системы из четырех возможных состояний, то есть получить некоторую информацию о системе, необходимо задать 2 вопроса. Первый вопрос, например: "Номер состояния больше 2?". Узнав ответ ("да", "нет"), мы увеличиваем суммарную информацию о системе на 1 бит ( I = log22 ). Далее необходим еще один уточняющий вопрос, например, при ответе "да": "Состояние – номер 3?". Итак, количество информации равно 2 битам ( I = log24 ). Если система имеет n различных состояний, то максимальное количество информации равно I = log2n .

Если во множестве X = 1, x2, . xn> искать произвольный элемент, то для его нахождения (по Хартли) необходимо иметь не менее logan (единиц) информации.

Уменьшение Н говорит об уменьшении разнообразия состояний N системы.

Увеличение Н говорит об увеличении разнообразия состояний N системы.

Мера Хартли подходит лишь для идеальных, абстрактных систем, так как в реальных системах состояния системы неодинаково осуществимы (неравновероятны).

Для таких систем используют более подходящую меру К. Шеннона. Мера Шеннона оценивает информацию отвлеченно от ее смысла:

где n – число состояний системы; рi – вероятность (относительная частота) перехода системы в i-е состояние, а сумма всех pi должна равняться 1.

Если все состояния рассматриваемой системы равновозможны, равновероятны, то есть рi = 1/n , то из формулы Шеннона можно получить (как частный случай) формулу Хартли:

Пример. Если положение точки в системе из 10 клеток известно, например если точка находится во второй клетке, то есть

то тогда получаем количество информации, равное нулю:

В термодинамике известен так называемый коэффициент Больцмана

k = 1.38 * 10 –16 (эрг/град)

и выражение (формула Больцмана) для энтропии или меры хаоса в термодинамической системе:

Сравнивая выражения для I и S, можно заключить, что величину I можно понимать как энтропию из-за нехватки информации в системе (о системе).

Основное функциональное соотношение между энтропией и информацией имеет вид:

Из этой формулы следуют важные выводы:

1. увеличение меры Шеннона свидетельствует об уменьшении энтропии (увеличении порядка) системы;

2. уменьшение меры Шеннона свидетельствует об увеличении энтропии (увеличении беспорядка) системы.

Положительная сторона формулы Шеннона – ее отвлеченность от смысла информации. Кроме того, в отличие от формулы Хартли, она учитывает различность состояний, что делает ее пригодной для практических вычислений. Основная отрицательная сторона формулы Шеннона – она не распознает различные состояния системы с одинаковой вероятностью.

Методы получения информации можно разбить на три большие группы.

1. Эмпирические методы или методы получения эмпирических данных.

2. Теоретические методы или методы построения различных теорий.

3. Эмпирико-теоретические методы (смешанные) или методы построения теорий на основе полученных эмпирических данных об объекте, процессе, явлении.

Охарактеризуем кратко эмпирические методы.

1. Наблюдение – сбор первичной информации об объекте, процессе, явлении.

2. Сравнение – обнаружение и соотнесение общего и различного.

3. Измерение – поиск с помощью измерительных приборов эмпирических фактов.

4. Эксперимент – преобразование, рассмотрение объекта, процесса, явления с целью выявления каких-то новых свойств.

Кроме классических форм их реализации, в последнее время используются опрос, интервью, тестирование и другие.

Охарактеризуем кратко эмпирико-теоретические методы.

1. Абстрагирование – выделение наиболее важных для исследования свойств, сторон исследуемого объекта, процесса, явления и игнорирование несущественных и второстепенных.

2. Анализ – разъединение целого на части с целью выявления их связей.

3. Декомпозиция – разъединение целого на части с сохранением их связей с окружением.

4. Синтез – соединение частей в целое с целью выявления их взаимосвязей.

5. Композиция — соединение частей целого с сохранением их взаимосвязей с окружением.

6. Индукция – получение знания о целом по знаниям о частях.

7. Дедукция – получение знания о частях по знаниям о целом.

8. Эвристики, использование эвристических процедур – получение знания о целом по знаниям о частях и по наблюдениям, опыту, интуиции, предвидению.

9. Моделирование (простое моделирование), использование приборов – получение знания о целом или о его частях с помощью модели или приборов.

10. Исторический метод – поиск знаний с использованием предыстории, реально существовавшей или же мыслимой.

11. Логический метод – поиск знаний путем воспроизведения частей, связей или элементов в мышлении.

12. Макетирование – получение информации по макету, представлению частей в упрощенном, но целостном виде.

13. Актуализация – получение информации с помощью перевода целого или его частей (а следовательно, и целого) из статического состояния в динамическое состояние.

14. Визуализация – получение информации с помощью наглядного или визуального представления состояний объекта, процесса, явления.

Кроме указанных классических форм реализации теоретико-эмпирических методов часто используются и мониторинг (система наблюдений и анализа состояний), деловые игры и ситуации, экспертные оценки (экспертное оценивание), имитация (подражание) и другие формы.

Охарактеризуем кратко теоретические методы.

1. Восхождение от абстрактного к конкретному – получение знаний о целом или о его частях на основе знаний об абстрактных проявлениях в сознании, в мышлении.

2. Идеализация – получение знаний о целом или его частях путем представления в мышлении целого или частей, не существующих в действительности.

3. Формализация – получение знаний о целом или его частях с помощью языков искусственного происхождения (формальное описание, представление).

4. Аксиоматизация – получение знаний о целом или его частях с помощью некоторых аксиом (не доказываемых в данной теории утверждений) и правил получения из них (и из ранее полученных утверждений) новых верных утверждений.

5. Виртуализация – получение знаний о целом или его частях с помощью искусственной среды, ситуации.

Пример. Для построения модели планирования и управления производством в рамках страны, региона или крупной отрасли нужно решить следующие проблемы:

1. определить структурные связи, уровни управления и принятия решений, ресурсы; при этом чаще используются методы наблюдения, сравнения, измерения, эксперимента, анализа и синтеза, дедукции и индукции, эвристический, исторический и логический методы, макетирование и др.;

2. определить гипотезы, цели, возможные проблемы планирования; наиболее используемые методы – наблюдение, сравнение, эксперимент, абстрагирование, анализ, синтез, дедукция, индукция, эвристический, исторический, логический и др.;

3. конструирование эмпирических моделей; наиболее используемые методы – абстрагирование, анализ, синтез, индукция, дедукция, формализация, идеализация и др.;

4. поиск решения проблемы планирования и просчет различных вариантов, директив планирования, поиск оптимального решения; используемые чаще методы – измерение, сравнение, эксперимент, анализ, синтез, индукция, дедукция, актуализация, макетирование, визуализация, виртуализация и др.

Суть задачи управления системой – отделение ценной информации от "шумов" (бесполезного, иногда даже вредного для системы возмущения информации) и выделение информации, которая позволяет этой системе существовать и развиваться.

Информационная система – это система, в которой элементы, структура, цель, ресурсы рассматриваются на информационном уровне (хотя, естественно, имеются и другие уровни рассмотрения).

Информационная среда – это среда (система и ее окружение) из взаимодействующих информационных систем, включая и информацию, актуализируемую в этих системах.

Установление отношений и связей, описание их формальными средствами, языками, разработка соответствующих описаниям моделей, методов, алгоритмов, создание и актуализация технологий, поддерживающих эти модели и методы, и составляет основную задачу информатики как науки, образовательной области, сферы человеческой деятельности.

Информатику можно определить как науку, изучающую неизменные сущности (инварианты) информационных процессов, которые протекают в различных предметных областях, в обществе, в познании, в природе.


Хотя в теории информации и вводится несколько ее конкретных определений, все они не охватывают всего объема этого понятия. Рассмотрим некоторые определения.

Информация — это отражение реального (материального, предметного) мира, которое выражается в виде сигналов, знаков.

Информация — любая совокупность сигналов, сведений (данных), которые какая-либо система воспринимает из окружающей среды (входная информация), выдает в окружающую среду ( исходящая информация ) или сохраняется внутри определенной системы (внутренняя информация).

Информация существует в виде документов, рисунков, текстов, звуковых и световых сигналов, энергетических и нервных импульсов и т.п.

Под информацией понимают сведения об объектах окружающего мира, которые воспринимаются человеком, животным, растительным миром или специальными устройствами и повышают их уровень информированности.

Виды информации

Информацию можно разделить на виды по нескольким признакам:

По способу восприятия

Для человека информация делится на виды в зависимости от типа рецепторов, воспринимающих ее:

  • Визуальная — воспринимается органами зрения.
  • Аудиальная — воспринимается органами слуха.
  • Тактильная — воспринимается тактильными рецепторами.
  • Обонятельная — воспринимается обонятельными рецепторами.
  • Вкусовая — воспринимается вкусовыми рецепторами.

По форме представления

По форме представления информация делится на следующие виды:

  • Текстовая — что передается в виде символов, предназначенных обозначать лексемы языка.
  • Числовая — в виде цифр и знаков, обозначающих математические действия.
  • Графическая — в виде изображений, событий, предметов, графиков.
  • Звуковая — устная или в виде записи передача лексем языка аудиальным путем.

По назначению

  • Массовая — содержит тривиальные сведения и оперирует набором понятий, понятным большей части социума.
  • Специальная — содержит специфический набор понятий, при использовании происходит передача сведений, которые могут быть не понятны основной массе социума, но необходимы и понятны в рамках узкой социальной группы, где используется данная информация.
  • Личная — набор сведений о какой-либо личности, которые определяют социальное положение и типы социальных взаимодействий внутри популяции.

Свойства информации

Полезность. Полезность информации оценивается по тем задачам, которые можно решить с ее использованием. Сведения, важные и полезные для одного человека, оказываются бесполезными для другого, если он не может их использовать.

Актуальность. Информация актуальна (своевременна), если она важна в данный момент времени. Если вы собираетесь ехать поездом, то для вас важна информация о том, когда этот поезд отправляется. Однако эта информация теряет свою актуальность после того, как поезд тронулся.

Вероятность (правдивость). Информация считается достоверной, если она не противоречит реальной действительности, правильно ее объясняет и подтверждается. Если вы узнали о наводнении из информационной телепрограммы, то эта информация, по всей вероятности, является достоверной. В то же время слухи о пришествии инопланетян, которое ожидается на следующей неделе, недостоверны.

Полнота. Информация полная, если ее достаточно для правильных выводов и принятия правильных решений. Если человеку на основе какой-либо информации приходится что-то решать, то он сначала оценивает, достаточно этой информации для принятия правильного решения.

Носители информации

Перфокарта — это лист тонкого картона стандартных размеров. В определенных позициях перфокарты пробивают дырочки. Наличие дырочки в определенной позиции считают единицу, а ее отсутствие — ноль.

Конечно, за дырочками, нанесенными на перфокарты или перфоленты, стоит вполне определенная информация.

Магнитные ленты и магнитные диски для хранения информации начали использовать с развитием вычислительной техники. Для записи 1 (единицы) намагничивалась небольшая область. Размагниченная (или намагниченная противоположно) область означала 0 (ноль).

Гибкие магнитные диски, или ГМД (FDD), позволяли легко переносить информацию с одного компьютера на другой, а также сохранять информацию, которая не используется на компьютере постоянно. Выпускались дискеты, как правило, с диском диаметром 3,5 дюйма и имели емкость всего 1,44 Мбайта.

Жесткие магнитные диски, или винчестеры (HDD), и сегодня являются основным типом носителей для долговременного хранения информации. Накопитель включает собственно магнитный диск, систему позиционирования и комплект магнитных головок — все это размещено в герметично закрытом корпусе.

Существуют CD-R, DVD-R — оптические диски, на которые можно осуществлять однократную запись, а также CD-RW, DVD-RW — оптические диски, на которые можно осуществлять многократную запись.

Формы и способы представления информации

Символьная форма представления информации является наиболее простой, в ней каждый символ имеет какое-то значение. Например: красный свет светофора, показатели поворота на транспортных средствах, различные жесты, сокращения и обозначения в формулах.

Графическая форма представления информации, как правило, имеет наибольший объем. К этой форме относятся фотографии, картины, чертежи, графики и тому подобное. Графическая форма более информативна. Видимо, поэтому, когда берем в руки новую книгу, то первым делом ищем в ней рисунки, чтобы создать о ней наиболее полное впечатление.

Информацию можно подавать одним из способов: буквами и знаками, жестами, нотами музыки, рисунками, картинами, скульптурами, звукозаписью, видеозаписью, кинофильмами и тому подобное.

Информация может быть в виде непрерывных (аналоговых) и дискретных (цифровых) сигналов.

Информация в аналоговом виде меняет свое значение постепенно (показатели термометра, часов со стрелками, спидометра и т.д.).

Информация в дискретном виде меняет свое значение с определенным шагом (показатели электронных часов, весы с гирями, подсчет количества предметов и т.п.).

Информатика

Основа информатики — информационные технологии — совокупность средств и методов, с помощью которых осуществляется информационные процессы во всех сферах жизни и деятельности человека.

Информационная системавзаимосвязанная совокупность средств, методов и персонала, используемая для хранения, обработки и выдачи информации с целью достижения конкретной задачи.

Современное понимание информационной системы (ИС) предусматривает использование компьютера в качестве основного технического средства обработка информации. Как правило, это компьютеры, оснащенные специализированными программными средствами.

В работе ИС, в ее технологическом процессе можно выделить следующие этапы :

  • сбор данных: накопление данных с целью достаточной полноты для принятия решений;
  • сохранения;
  • передача;
  • обработка.

Одним из важнейших условий применения электронно — вычислительных машин (ЭВМ) для решения тех или иных задач является построение соответствующего алгоритма (программы), содержащий информацию о правилах получения результирующей (итоговой) информации из заданной (входной) информации.

Программирование — дисциплина, исследующая методы формулировки и решения задач с помощью ЭВМ, и является основной составной частью информатики.

Итак, информация, ЭВМ, алгоритм — три фундаментальных понятия информатики.

Информатика — комплексная научная и инженерная дисциплина, изучающая все аспекты проектирования, создания, оценки, функционирования компьютерных систем обработки информации, ее применение и влияние на различные области социальной практики.

В информатике выделяют три основных части:

  • алгоритмы обработки информации ( algorithm )
  • вычислительную технику ( hardware )
  • компьютерные программы ( software ).

Предмет информатики составляют понятия:

  • аппаратное обеспечение средств вычислительной техники
  • программное обеспечение средств вычислительной техники;
  • средства взаимодействия аппаратного и программного обеспечения;
  • средства взаимодействия человека и аппаратного и программного обеспечения.

Методы и средства взаимодействия человека с аппаратными и программными средствами называется интерфейсом.

Двоичное кодирование информации

В вычислительной технике наиболее часто применяется двоичная форма представления информации, основанной на представленные данных последовательностью двух знаков: 0 и 1

Эти знаки называются двоичными цифрами, по — английски — binary digit , или, сокращенно bit (бит).

Также используется восьмеричная форма представления информации (основана на представленные последовательности цифр 0, 1, …, 7) и шестнадцатеричная форма представления информации (основана на представленные последовательностью 0, 1, …, 9, A, B, C, …, F).

В современной вычислительной технике биты принято объединять в восьмерки, которые называются байтами : 1 байт = 8 бит. Наряду с битами и байтами используют и большие единицы измерения информации.

  • 1 bit binary digit ;
  • 1 байт = 8 бит;
  • 1 Кбайт = 2 10 байт = 1024 байт;
  • 1 Мбайт = 2 10 Кбайт = 1024 Кбайт = 2 20 байт;
  • 1 Гбайт = 2 10 Мбайт = 1024 Мбайт = 2 30 байт;
  • 1 Тбайт = 2 10 Гбайт = 1024 Гбайт = 2 40 байт.
  • 1 Пбайт = 2 10 Тбайт = 1024 Тбайт = 2 50 байт.

С помощью двух бит кодируются четыре различных значения: 00, 01, 10, 11. Тремя битами можно закодировать 8 состояний:

Вообще с помощью n бит можно закодировать 2 n состояний.

Скорость передачи информации измеряется количеством битов, передаваемых за одну секунду. Скорость передачи бит за одну секунду называется 1 Бодом. Производные единицы скорости передачи называются Кбод, Мбод и Гбод:

  • 1 Кбод (один килобод) = 2 10 бод = 1024 бит / с;
  • 1 Мбод (один мегабод) = 2 20 бод = 1024 Кбод;
  • 1 Гбод (один гигабод) = 2 30 бод = 1024 Мбод.

Пример. Пусть модем передает информацию со скоростью 2400 бод. Для передачи одного символа текста нужно передать около 10 битов. Таким образом, модем способен за 1 секунду передать около 2400/10 = 240 символов.

На ЭВМ можно обрабатывать не только числа, но и тексты. При этом нужно закодировать около 200 различных символов. В двоичном коде для этого нужно не менее 8 разрядов ( 2 8 = 256 ). Этого достаточно для кодирования всех символов английского и русского алфавитов (строчные и прописные), знаков препинания, символов арифметических действий некоторых общепринятых спецсимволов.

В настоящее время существует несколько систем кодирования.

Наиболее распространенными являются следующие системы кодирования: ASCII, Windows-1251, KOИ8, ISO.

ASCII (American Standard Code for Information Interchange — стандартный код информационного обмена)

В системе ASCII закреплены 2 таблицы кодирования: базовая и расширенная. Базовая таблица закрепляет значения кодов от 0 до 127, расширенная от 128 до 255.

В первых 32 кодах (0-31) размещаются так называемые управляющие коды, которым не соответствуют никакие символы языков, и, соответственно коды не выводятся ни на экран, ни на устройстве печати.

Начиная с кода 32 по код 127 размещены коды символов английского алфавита.

Символы национального алфавита размещены в кодах от 128 до 255.

Кодирования Windows-1251 стала стандартом в российском секторе Wold Wide Web .

ISO ( International Standard Organization ) — международный стандарт. Это кодирования используется редко.

Появление информатики обусловлено возникновением и распространением новой технологии сбора, обработки и передачи информации, связанной с фиксацией данных на машинных носителях. Основной инструмент информатики — компьютер.

Компьютер, получивший свое название от первоначального назначения — выполнения вычислений, имеет второе очень важное применение. Он стал незаменимым помощником человека в его интеллектуальной деятельности и основным техническим средством информационных технологий. А быстрое развитие в последние годы технических и программных возможностей персональных компьютеров, распространение новых видов информационных технологий создают реальные возможности их использования, открывая перед пользователем качественно новые пути дальнейшего развития и адаптации к потребностям общества.

Дезинформация

Дезинформация — заведомо неверная, ложная информация, предоставляемая оппоненту или противнику для более эффективного ведения военных действий, получения каких либо конкурентных преимуществ, для проверки на утечку информации и выявления источника утечки, определения потенциально ненадежных клиентов или партнеров. Также дезинформацией называется сам процесс манипулирования информацией, как то: введение кого-либо в заблуждение путём предоставления неполной информации или полной, но уже не актуальной информации, искажения контекста, искажения какой либо части информации.

Дезинформация, как мы видим, — это результат деятельности человека, желание создать ложное впечатление и, соответственно подтолкнуть к требуемым действиям и/или бездействию.

Понятие "информация" имеет различные трактовки в разных предметных областях. Например, информация может пониматься как:

  • абстракция, абстрактная модель рассматриваемой системы (в математике);
  • сигналы для управления, приспособления рассматриваемой системы (в кибернетике);
  • мера хаоса в рассматриваемой системе (в термодинамике);
  • вероятность выбора в рассматриваемой системе (в теории вероятностей);
  • мера разнообразия в рассматриваемой системе (в биологии) и др.

Рассмотрим это фундаментальное понятие информатики на основе понятия "алфавит" ("алфавитный", формальный подход). Дадим формальное определение алфавита .

Алфавит – конечное множество различных знаков, символов, для которых определена операция конкатенации (приписывания, присоединения символа к символу или цепочке символов); с ее помощью по определенным правилам соединения символов и слов можно получать слова (цепочки знаков) и словосочетания (цепочки слов ) в этом алфавите (над этим алфавитом ).

x\in X

Буквой или знаком называется любой элемент x алфавита X , где . Понятие знака неразрывно связано с тем, что им обозначается ("со смыслом"), они вместе могут рассматриваться как пара элементов (x, y) , где x – сам знак, а y – обозначаемое этим знаком.

Пример. Примеры алфавитов : множество из десяти цифр, множество из знаков русского языка, точка и тире в азбуке Морзе и др. В алфавите цифр знак 5 связан с понятием "быть в количестве пяти элементов".

Конечная последовательность букв алфавита называется словом в алфавите (или над алфавитом ).

Длиной |p| некоторого слова p над алфавитом Х называется число составляющих его букв .

Слово (обозначаемое символом ) имеющее нулевую длину , называется пустым словом : | | = 0.

Множество различных слов над алфавитом X обозначим через S(X) и назовем словарным запасом (словарем) алфавита (над алфавитом ) X .

В отличие от конечного алфавита , словарный запас может быть и бесконечным.

В алфавите должен быть определен порядок следования букв (порядок типа "предыдущий элемент – последующий элемент"), то есть любой алфавит имеет упорядоченный вид X = 1, x2, …, xn> .

Таким образом, алфавит должен позволять решать задачу лексикографического (алфавитного) упорядочивания, или задачу расположения слов над этим алфавитом , в соответствии с порядком, определенным в алфавите (то есть по символам алфавита ).

Информация по отношению к источнику или приемнику бывает трех типов: входная, выходная и внутренняя.

Информация по отношению к конечному результату бывает исходная, промежуточная и результирующая.

Информация по ее изменчивости бывает постоянная, переменная и смешанная.

Информация по стадии ее использования бывает первичная и вторичная.

Информация по ее полноте бывает избыточная, достаточная и недостаточная.

Информация по доступу к ней бывает открытая и закрытая.

Есть и другие типы классификации информации .

Пример. В философском аспекте информация делится на мировоззренческую, эстетическую, религиозную, научную, бытовую, техническую, экономическую, технологическую.


Информация — сведения об окружающем нас мире, событиях, явлениях, воспринимаемые, хранимые и передающиеся человеком.

В обыденной жизни под информацией понимают сведения о предметах, явлениях, фактах, действиях, процессах, передаваемые людьми устным, письменным или другим образом. Сведения о внешнем мире человек воспринимает с помощью органов чувств (зрения, слуха, вкуса, обоняния, осязания). Таким образом, информация— это знания, сведения, которые человек получает из окружающего мира с помощью органов чувств. Такой подход к понятию можно назвать субъективным.

С позиции кибернетики (наука о связи и управлении в машинах и животных, а также в обществе и человеческих существах) информация— это совокупность сигналов, воздействий или сведений, которые система или объект воспринимает извне (входная информ.), выдает в окружающую среду (выходная информ.) или хранит в себе (внутренняя информ.).

В компьютерной обработке данных под информацией понимают последовательность символьных обозначений (букв, цифр, закодированных графических образов и звуков и т. п.), несущую смысловую нагрузку и представленную в доступном компьютеру виде.

Информатика — наука, изучающая структуру и общие свойства информации, а также методы ее представления, накопления, хранения, поиска, обработки, передачи и воспроизведения с помощью технических средств

То есть мы учимся работать с информацией с помощью компьютера. Поэтому сегодня мы поговорим о том, что такое информация.

Информацию вы получаете из разных источников: когда читаете, слушаете, смотрите телепередачу или разглядываете картину, дотрагиваетесь до предмета или пробуете какую-нибудь еду.

Информация несет человеку знания об окружающем мире. В наши дни человечество накопило огромное количество информации! Подсчитано, что общая сумма человеческих знаний до недавнего времени удваивалась каждые 50 лет. Сейчас объем информации удваивается через каждые два года. Представьте себе колоссальную библиотеку, содержащую эти сведения! От умения человека правильно воспринимать и обрабатывать информацию зависит во многом его способность к познанию окружающего мира.

Мир вокруг нас полон всевозможных образов, звуков, запахов, и всю эту информацию доносят до сознания человека его органы чувств: зрение, слух, обоняние, вкус и осязание. С их помощью человек формирует свое первое представление о любом предмете, живом существе, произведении искусства, явлении и пр.

    • Глазами люди воспринимают зрительную информацию;
    • Органы слуха доставляют информацию в виде звуков;
    • Органы обоняния позволяют ощущать запахи;
    • Органы вкуса несут информацию о вкусе еды;
    • Органы осязания позволяют получить тактильную информацию.

    Виды информации, которые человек получает с помощью органов чувств, называют органолептической информацией. Практически 90% информации человек получает при помощи органов зрения, примерно 9% — посредством органов слуха и только 1% — при помощи остальных органов чувств.

    Люди, обмениваясь между собой информацией, постоянно должны задавать себе вопросы: понятна, актуальна и полезна ли она для окружающих, достоверны ли полученные сведения. Это позволит лучше понять друг друга, найти правильное решение в любой ситуации. Вы постоянно анализируете свойства информации, часто не придавая этому значения. В повседневной жизни от свойств информации часто зависят жизнь и здоровье людей, экономическое развитие общества.

    Воспринимая информацию с помощью органов чувств, человек стремится зафиксировать ее так, чтобы она стала понятной и другим, представляя ее в той или иной форме.

    Музыкальную тему композитор может наиграть на пианино, а затем записать с помощью нот. Образы, навеянные все той же мелодией, поэт может воплотить в виде стихотворения, хореограф выразить танцем, а художник — в картине.

    Человек выражает свои мысли в виде предложений, составленных из слов. Слова, в свою очередь, состоят из букв. Это — алфавитное представление информации.

    Форма представления одной и той же информации может быть различной. Это зависит от цели, которую вы перед собой поставили.

    Таким образом, информацию можно представить в различной форме:

      • в знаковой письменной
      • символьную в виде текста, чисел, различных символов (текст учебника);
      • графическую (географическая карта);
      • табличную (таблица по физике);
      • в виде жестов или сигналов (светофор);
      • устной словесной (разговор).

      Форма представления информации очень важна при ее передаче. В разные времена люди передавали информацию в различной форме с помощью: речи, дыма, забавного боя, звона колоколов, письма, телеграфа, радио, телефона, факса. Независимо от формы представления и способа передачи информации, она всегда передается с помощью какого-либо языка.

      Языки делятся на естественные (разговорные) и формальные. Алфавит естественных языков зависит от национальных традиций. Формальные языки встречаются в специальных областях человеческой деятельности (математике, физике, химии и т. д.). В мире насчитывается около

      10 000 разных языков, диалектов, наречий. Многие разговорные языки произошли от одного и того же языка. Например, от латинского языка образовались французский, испанский, итальянский и другие языки.

      Каждый народ имеет свой язык, состоящий из набора символов (букв): русский, английский, японский и многие другие. Вы уже познакомились с языком математики, физики, химии.

      Представление информации с помощью какого-либо языка часто называют кодированием.

      Код — набор символов (условных обозначений) для представления информации.

      Кодирование — процесс представления информации в виде кода.

      Вы встречаетесь с кодированием информации при переходе дороги по сигналам светофора. Код определяет цвета светофора — красный, желтый, зеленый, основу естественного языка, на котором общаются люди, тоже положен код. Только в этом случае он называется алфавитом. При разговоре этот код передается звуками, при письме — буквами. Одну и туже информацию можно представить с помощью различных кодов. Например, запись разговора можно зафиксировать посредством русских букв или специальных стенографических значков.

      Сегодня такой способ представления информации, с помощью языка содержащего два символа 0 и 1, широко используется в технических устройствах.

      Эти два символа 0 и 1 принято называть битами (от англ. binary digit – двоичный знак).

      Бит – наименьшая единица измерения информации и обозначается двоичным числом.

      Более крупной единицей изменения объема информации принято считать 1 байт, который состоит из 8 бит.

      1 байт = 8 битов.

      Читайте также: