Что такое сообщение с точки зрения теории информации

Обновлено: 05.07.2024

Теория информации — раздел прикладной математики, радиотехники (теория обработки сигналов) и информатики, относящийся к измерению количества информации, её свойств и устанавливающий предельные соотношения для систем передачи данных. Как и любая математическая теория, теория оперирует математическими моделями, а не реальными физическими объектами (источниками и каналами связи). Использует, главным образом, математический аппарат теории вероятностей и математической статистики.

Основные разделы теории информации — кодирование источника (сжимающее кодирование) и канальное (помехоустойчивое) кодирование. Теория информации тесно связана с информационной энтропией, коммуникационными системами, криптографией и другими смежными дисциплинами.

1. Понятие информации с точки зрения различных наук

1. существует в неживой природе;

2. существует в биологических системах;

3. не всегда может быть выражена словами;

4. возникает в процессе общения;

5. хранится, обрабатывается, передается, и т.д.

В физике понятие информация рассматривается как антиэнтропия или энтропия с обратным знаком. Поскольку мерой беспорядка термодинамической системы является энтропия системы, то информация (антиэнтропия) является мерой упорядоченности и сложности системы. По мере увеличения сложности системы величина энтропии уменьшается, и величина информации увеличивается. Процесс увеличения информации характерен для открытых, обменивающихся веществом и энергией с окружающей средой, саморазвивающихся систем живой природы (белковых молекул, организмов, популяций животных и т.д.).

В неживой природе понятие информация связано с понятием отражения, отображения. В некоторых физических и химических теориях информация определяется как отраженное многообразие. Отражение заключается в таком изменении одного материального объекта под воздействием другого, при котором все особенности отражаемого объекта каким-либо образом воспроизводятся отражающим объектом. В процессе отражения и происходит передача информации. Т.е. информация - это результат отражения. В соответствии с этим взглядом информация существовала и будет существовать вечно, она содержится во всех элементах и системах материального мира. Информация, наряду с веществом и энергией, является неотъемлемым свойством материи.

В кибернетике – науке об управлении в живых, неживых и искусственных системах – понятие информации связывают воедино с понятием управления (Норберт Винер, Б.Н. Петров). Жизнедеятельность любого организма или нормальное функционирование технического устройства зависит от процессов управления, благодаря которым поддерживаются в необходимых пределах значения их параметров. Процессы управления включают в себя получение, хранение, преобразование и передачу информации. Информация является обозначением содержания, полученного из внешнего мира в процессе приспособления к нему наших чувств. Информацию составляет та часть знания, которая используется для ориентирования, принятия решений, активного действия, управления, т.е. в целях сохранения, совершенствования и развития системы.

Данная концепция отрицает существование информации в неживой природе, не дает ответа на вопросы: являются ли информацией неиспользованные знания, являются ли информацией неосмысленная информация?

Дальнейшим развитием математического подхода к феномену информация послужили работы Р. Карнапа, И. Бар-Хиллела, А.Н. Колмогорова и многие др.

Понятие информация используется в связи с исследованием механизмов наследственности. В генетике сформулировано понятие генетической информации, которое определяется как программа (код) биосинтеза белков, представленных цепочками ДНК. Реализуется эта информация в ходе развития особи. Последнее обстоятельство позволило проводить научные эксперименты по клонированию, т.е. созданию точных копий организмов их одной клетки.

В социальных науках (социологии, психологии, политологии и др.) под информацией понимают сведения, данные, понятия, отраженные в нашем сознании и изменяющие наши представления о реальном мире. Эту информацию, передающуюся в человеческом обществе и участвующую в формировании общественного сознания, называют социальной информацией.

Под информацией в документолистике понимают все то, что так или иначе зафиксировано в знаковой форме в виде документов.

С точки зрения индивидуального человеческого сознания информация – это то, что поступает в наш мозг из многих источников в разных формах и, взаимодействуя там, образует структуру нашего знания. Под информацией в быту (житейский аспект) понимают сведения об окружающем мире и протекающем в нем процессах, воспринимаемые человеком или специальными устройствами. Информацией для человека являются не только сухие факты, строгие инструкции, но и то, что радует нас, волнует, печалит, заставляет переживать, восторгаться, презирать, негодовать. Более половины общего объема сведений, полученных в процессе разговора, приходится на так называемую несмысловую информацию. Эту информации говорящий по своему желанию, а иногда и непроизвольно, сообщает нам своей тональностью разговора, своей возбужденностью, жестикуляцией, выражением лица, глаз и т.д.

2. Свойства информации

Все знания об окружающем мире человек получает с помощью органов чувств. Насколько мы им можем доверять?

Информация нам нужна для того, чтобы принимать правильные решения. Поэтому необходимо, чтобы она обладала следующими свойствами или качественными признаками

1. Объективность информации . Информация объективна, если она не зависит от чьего-либо мнения.

Пример. а) На улице тепло. б) Температура воздуха 22 ºС (если термометр исправен).

2. Достоверность . Информация достоверна, если она отражает истинное положение дел. Объективная информация всегда достоверна, но достоверная информация может быть как объективной, так и субъективной. Недостоверной информация может быть по следующим причинам:

1) преднамеренное искажение (дезинформация);

2) искажение в результате действия помех;

3) когда значение отдельного факта или ряда фактов преуменьшается или преувеличивается (слухи, рыбацкие истории).

4. Актуальность (своевременность) информации – важность, существенность для настоящего времени. Только вовремя полученная информация может принести пользу. Неактуальной может быть информация по двум причинам:

1) она может быть устаревшей (прошлогодняя газета);

5. Ценность (полезность или бесполезность) информации оценивается применительно к задачам, которые можно решить с ее помощью.

Самая ценная информация – это достаточно полезная, полная, объективная, достоверная и новая.

Самая достоверная информация не может быть новой.

6. Ясность, понятность. Информация понятна, если она выражена на языке, доступном для получателя.

Некоторые представления о разнообразии информации может дать следующее определение (энциклопедический словарь). Информация – общенаучное понятие, включающее обмен сведениями между людьми, человеком и автоматом, обмен сигналами в животном и растительном мире; передачу признаков от клетки к клетки, от организма к организму. Из этого определения следует существование 4 видов информации:

1. социальная (человек-человек);

2. техническая (человек-автомат, автомат-автомат);

3. биологическая (информация в живом и растительном мире);

4. генетическая (передача признаков от клетки к клетке, от организма к организму).

Другие основания классификации информации:

· по способам и формам получения (восприятия);

· по характеру носителя;

· по характеру источника;

· по сфере применения;

· по общественному значению.

У человека 5 органов чувств:

Человек воспринимает информацию по зрительному каналу: текстовую, числовую, графическую.

Человек воспринимает звуковую информацию: речь, музыка, звуковые сигналы, шум.

Человек воспринимает запахи окружающего мира.

Вкусовые рецепторы языка дают возможность получить информацию о вкусовых качествах предмета.

Около 90% всей информации человек получает при помощи органов зрения (визуальный), около 9% - при помощи органов слуха (аудиальный) и только около 1% - при помощи всех остальных органов чувств. Органы чувств получили название анализаторов, поскольку именно через это органы информация попадает в головной мозг.

Важные разделы теории информации Шеннона включают:

  • кодирования информации ;
  • количественная мера избыточности текста;
  • на сжатие данных ;
  • криптография .

В более общем смысле теория информации - это теория, направленная на количественную оценку и уточнение понятия информационного содержания, присутствующего в наборе данных. Таким образом, существует другая теория информации: алгоритмическая теория информации , созданная Колмогоровым , Соломоновым и Чайтиным в начале 1960- х годов .

Резюме

Информация по Шеннону, концепция математической физики

Информация - это новое физическое понятие, возникшее в технологической сфере. Теоретическая концепция информации была введена в результате теоретических исследований телекоммуникационных систем . Происхождение этого исследования восходит к исследованиям , проведенных в конце XIX E века, в физике и математике Больцмана и Маркова на понятии вероятности наступления события и возможности измерения этой вероятности. Совсем недавно, перед Второй мировой войной , наиболее важный вклад был сделан благодаря сотрудничеству математиков и инженеров по телекоммуникациям , которые были вынуждены рассмотреть теоретические свойства любой сигнальной системы, используемой живыми или техническими существами для целей связи .

Следуя работе Хартли (1928), Шеннон (1948) определяет информацию как измеримую величину, если не наблюдаемую - потому что никто никогда не видел информацию - и это становится основой теории коммуникации, которую он развивает вместе с Уорреном Уивером .

Для Шеннон информация по сути случайна. Случайное событие по определению является неопределенным. Эта неопределенность принимается за меру информации. Таким образом, информация будет определяться только ее вероятностью ( I = - log p ). Таким образом, информация - это мера неопределенности, рассчитанная на основе вероятности события. Поэтому Шеннон перепутал понятие информации и измерения неопределенности. Следует отметить, что в этом определении информация является синонимом измерения неопределенности. Таким образом, чем неопределеннее информация, тем она интереснее, а определенное событие не содержит никакой информации. Таким образом, в теории информации Шеннона речь идет о вероятностных рассуждениях, а не чистой логике.

Физический статус теории информации

Очень быстро в области гуманитарных наук появились многочисленные приложения теории информации Шеннона: разработанные математические модели позволили определить определенные концепции, обычно используемые в структурно-лингвистическом анализе, в то же время они выявили ограничения, присущие этому типу анализа. и побудили к новым исследованиям (в области машинного перевода и психолингвистики). Пока развивалось новое научное направление: кибернетика .

Однако главной характеристикой теории Шеннона является то, что она придает понятию информации (как определено этой теорией) самостоятельный физический статус. В самом деле, информация приобретает фундаментальные характеристики любой организованной физической реальности: предоставленная самой себе, она может развиваться только в направлении своей дезорганизации, то есть увеличения энтропии ; фактически, информация в своих преобразованиях (кодировании, передаче, декодировании и т. д.) подвергается необратимому и возрастающему эффекту деградации. Поэтому Шеннон определяет как энтропию информации меру H ( H = - K log p ). Удивительно, но уравнение, с помощью которого Шеннон определяет энтропию информации, совпадает с точностью до мультипликативного множителя с уравнением Больцмана-Гиббса, определяющим энтропию S в термодинамике ( S = - K log p ). Этот важный эпизод получил множество комментариев.

Некоторые, например Куффигналь, утверждали, что совпадение бессмысленно: применение функции Шеннона к термодинамике и информации было бы совпадением применения той же математической формулы, не более того. Конечно, может быть встреча двух вероятностных уравнений из разных вселенных.

Развитие математической теории информации

Математическая теория информации возникла в результате работы Рональда Эйлмера Фишера . Этот статистик формально определяет информацию как равную среднему значению квадрата частной производной ( δ ) натурального логарифма изучаемого закона вероятности .

Другие математические модели формально дополнили и расширили определение информации .

Для источника X, содержащего n символов, символа x i, имеющего вероятность появления p i = P ( X = x i ) , энтропия H источника X определяется как:

Изначально используется натуральный логарифм . Он будет заменен для удобства логарифмом с основанием 2, соответствующим части информации, которая является битом . Соображения максимальной энтропии ( MAXENT ) позволят байесовскому выводу рационально определить априорные распределения .

В информационных науках выходят из направления из данных на основе вопросов корреляции , по энтропии и обучения (см интеллектуального анализа данных ). В информационных технологиях , тем временем, обеспокоены тем, как проектировать, внедрять и внедрять решения для удовлетворения выявленных потребностей.

Примеры информации

An информация средства, из множества событий, одного или нескольких возможных событий.

Первый пример

Либо источник, который может производить целые напряжения от 1 до 10 вольт, либо приемник, который будет измерять это напряжение. Перед тем, как электрический ток будет отправлен источником, приемник не имеет представления о напряжении, которое будет доставлено источником. С другой стороны, как только ток излучается и принимается, неопределенность излучаемого тока уменьшается. Теория информации считает, что приемник имеет неопределенность 10 состояний.

Второй пример

В библиотеке имеется большое количество книг, журналов, книг и словарей. Мы ищем полный курс по теории информации. Во-первых, логично, что мы не найдем этот файл в произведениях искусства или литературы; поэтому мы только что получили информацию, которая сократит время нашего исследования. Мы указали, что нам также нужен полный курс, поэтому мы не найдем его в журнале или в словаре. Мы получили дополнительную информацию (ищем книгу), которая еще больше сократит время исследования.

Информационное содержание и контекст

Измерение количества информации

Количество информации: элементарный случай

Рассмотрим N пронумерованные коробки от 1 до N . Человек А случайно спрятал объект в одном из этих ящиков. Человек B должен найти номер коробки, в которой спрятан объект. Для этого он имеет право задавать вопросы человеку А, на которые он должен ответить, не лгая ДА или НЕТ. Но каждый заданный вопрос представляет собой стоимость, которую должен заплатить человек B (например, один евро). Индивидуум C знает, в каком ящике спрятан объект. У него есть возможность продать эту информацию физическому лицу B. B примет эту сделку только в том случае, если цена для C будет меньше или равна средней стоимости, которую B должен был бы потратить, чтобы найти коробку, задав вопросы A. информацию, имеющуюся у Следовательно, C имеет определенную цену. Эта цена представляет количество информации, представленной знанием правого поля: это среднее количество вопросов, которые нужно задать, чтобы идентифицировать это поле. Обозначим его I.

  • Если N = 1 , I = 0 .
  • Если N = 2 , I = 1 .
  • Если N = 4 , I = 2 .
  • Если N = 2 k , I = k .

Поэтому мы вынуждены установить I = log 2 ( N ) , но эта конфигурация возникает только в случае N равновероятных событий.

Объем информации, относящейся к событию

Таким образом, мы определяем количество информации как возрастающую функцию от Nn с помощью:

  • N количество возможных событий
  • n количество элементов подмножества, ограниченных информацией

Чтобы измерить это количество информации, мы устанавливаем:

Это определение оправдано, потому что нам нужны следующие свойства:

Энтропия, формула Шеннона

Предположим теперь, что коробки разного цвета: n 1 коробок цвета C 1 , n 2 коробок цвета C 2 …, n k коробок цветов C k , причем n 1 + n 2 +… + n k = N. La человек C знает, какого цвета разыскиваемая коробка. Сколько стоит эта информация?

Таким образом, средняя цена информации составляет n 1 / N log N / n 1 + n 2 / N log N / n 2 +… + n k / N log N / n k . В более общем плане, если мы рассматриваем k непересекающихся событий с соответствующими вероятностями p 1 , p 2 . p k с p 1 + p 2 + . + p k = 1, то количество информации, соответствующее этому распределению вероятностей, равно p 1 log 1 / p 1 +… + p k log 1 / p k . Эта величина называется энтропией распределения вероятностей.

с вероятностью, связанной с наступлением события i . п я знак равно нет я НЕТ = > >>

Кодирование информации

Рассмотрим серию символов. Каждый символ может принимать два значения s 1 и s 2 с вероятностями соответственно p 1 = 0,8 и p 2 = 0,2. Количество информации, содержащейся в символе, составляет:

Например, мы группируем символы три на три и кодируем их следующим образом:

символы для кодирования вероятность тройки триплетное кодирование длина кода
с 1 с 1 с 1 0,8 3 = 0,512 0 1
с 1 с 1 с 2 0,8 2 × 0,2 = 0,128 100 3
с 1 с 2 с 1 0,8 2 × 0,2 = 0,128 101 3
с 2 с 1 с 1 0,8 2 × 0,2 = 0,128 110 3
с 1 с 2 с 2 0,2 2 × 0,8 = 0,032 11100 5
с 2 с 1 с 2 0,2 2 × 0,8 = 0,032 11101 5
с 2 с 2 с 1 0,2 2 × 0,8 = 0,032 11110 5
с 2 с 2 с 2 0,2 3 = 0,008 11111 5

НЕТ 3 ( 0 , 512 + 3 × 0 , 128 × 3 + 3 × 0 , 032 × 5 + 0 , 008 × 5 ) знак равно 0 , 728 НЕТ (0,512 + 3 \ раз 0,128 \ раз 3 + 3 \ раз 0,032 \ раз 5 + 0,008 \ раз 5) = 0,728N>

Пределы этой теории

Теория информации Шеннона всегда относится к набору данных, семейству строк, характеризуемых очень точным законом распределения. Таким образом, она дает среднее содержание информации , что делает ее вероятностной теорией , особенно хорошо подходящей для контекста передачи данных, и в этом контексте эта теория дала важные результаты. Однако он не может количественно оценить информационное содержание цепи, взятой изолированно, например, цепи ДНК , в то время как алгоритмическая теория информации в некоторой степени способна. Но у этой последней теории также есть свои ограничения. Вот почему мы не должны считать, что понятие информации полностью охвачено теорией информации Шеннона или алгоритмической теорией информации, но что это понятие требует множества формальных моделей, чтобы выразить себя.

Таким образом, иногда кажется, что информация Фишера заменяет информацию Шеннона с выгодой, поскольку она является локальной, а не глобальной количественной оценкой информации, содержащейся в распределении. Однако эти две концепции связаны и в различных приложениях могут приводить к одним и тем же результатам.


Хотя в теории информации и вводится несколько ее конкретных определений, все они не охватывают всего объема этого понятия. Рассмотрим некоторые определения.

Информация — это отражение реального (материального, предметного) мира, которое выражается в виде сигналов, знаков.

Информация — любая совокупность сигналов, сведений (данных), которые какая-либо система воспринимает из окружающей среды (входная информация), выдает в окружающую среду ( исходящая информация ) или сохраняется внутри определенной системы (внутренняя информация).

Информация существует в виде документов, рисунков, текстов, звуковых и световых сигналов, энергетических и нервных импульсов и т.п.

Под информацией понимают сведения об объектах окружающего мира, которые воспринимаются человеком, животным, растительным миром или специальными устройствами и повышают их уровень информированности.

Виды информации

Информацию можно разделить на виды по нескольким признакам:

По способу восприятия

Для человека информация делится на виды в зависимости от типа рецепторов, воспринимающих ее:

  • Визуальная — воспринимается органами зрения.
  • Аудиальная — воспринимается органами слуха.
  • Тактильная — воспринимается тактильными рецепторами.
  • Обонятельная — воспринимается обонятельными рецепторами.
  • Вкусовая — воспринимается вкусовыми рецепторами.

По форме представления

По форме представления информация делится на следующие виды:

  • Текстовая — что передается в виде символов, предназначенных обозначать лексемы языка.
  • Числовая — в виде цифр и знаков, обозначающих математические действия.
  • Графическая — в виде изображений, событий, предметов, графиков.
  • Звуковая — устная или в виде записи передача лексем языка аудиальным путем.

По назначению

  • Массовая — содержит тривиальные сведения и оперирует набором понятий, понятным большей части социума.
  • Специальная — содержит специфический набор понятий, при использовании происходит передача сведений, которые могут быть не понятны основной массе социума, но необходимы и понятны в рамках узкой социальной группы, где используется данная информация.
  • Личная — набор сведений о какой-либо личности, которые определяют социальное положение и типы социальных взаимодействий внутри популяции.

Свойства информации

Полезность. Полезность информации оценивается по тем задачам, которые можно решить с ее использованием. Сведения, важные и полезные для одного человека, оказываются бесполезными для другого, если он не может их использовать.

Актуальность. Информация актуальна (своевременна), если она важна в данный момент времени. Если вы собираетесь ехать поездом, то для вас важна информация о том, когда этот поезд отправляется. Однако эта информация теряет свою актуальность после того, как поезд тронулся.

Вероятность (правдивость). Информация считается достоверной, если она не противоречит реальной действительности, правильно ее объясняет и подтверждается. Если вы узнали о наводнении из информационной телепрограммы, то эта информация, по всей вероятности, является достоверной. В то же время слухи о пришествии инопланетян, которое ожидается на следующей неделе, недостоверны.

Полнота. Информация полная, если ее достаточно для правильных выводов и принятия правильных решений. Если человеку на основе какой-либо информации приходится что-то решать, то он сначала оценивает, достаточно этой информации для принятия правильного решения.

Носители информации

Перфокарта — это лист тонкого картона стандартных размеров. В определенных позициях перфокарты пробивают дырочки. Наличие дырочки в определенной позиции считают единицу, а ее отсутствие — ноль.

Конечно, за дырочками, нанесенными на перфокарты или перфоленты, стоит вполне определенная информация.

Магнитные ленты и магнитные диски для хранения информации начали использовать с развитием вычислительной техники. Для записи 1 (единицы) намагничивалась небольшая область. Размагниченная (или намагниченная противоположно) область означала 0 (ноль).

Гибкие магнитные диски, или ГМД (FDD), позволяли легко переносить информацию с одного компьютера на другой, а также сохранять информацию, которая не используется на компьютере постоянно. Выпускались дискеты, как правило, с диском диаметром 3,5 дюйма и имели емкость всего 1,44 Мбайта.

Жесткие магнитные диски, или винчестеры (HDD), и сегодня являются основным типом носителей для долговременного хранения информации. Накопитель включает собственно магнитный диск, систему позиционирования и комплект магнитных головок — все это размещено в герметично закрытом корпусе.

Существуют CD-R, DVD-R — оптические диски, на которые можно осуществлять однократную запись, а также CD-RW, DVD-RW — оптические диски, на которые можно осуществлять многократную запись.

Формы и способы представления информации

Символьная форма представления информации является наиболее простой, в ней каждый символ имеет какое-то значение. Например: красный свет светофора, показатели поворота на транспортных средствах, различные жесты, сокращения и обозначения в формулах.

Графическая форма представления информации, как правило, имеет наибольший объем. К этой форме относятся фотографии, картины, чертежи, графики и тому подобное. Графическая форма более информативна. Видимо, поэтому, когда берем в руки новую книгу, то первым делом ищем в ней рисунки, чтобы создать о ней наиболее полное впечатление.

Информацию можно подавать одним из способов: буквами и знаками, жестами, нотами музыки, рисунками, картинами, скульптурами, звукозаписью, видеозаписью, кинофильмами и тому подобное.

Информация может быть в виде непрерывных (аналоговых) и дискретных (цифровых) сигналов.

Информация в аналоговом виде меняет свое значение постепенно (показатели термометра, часов со стрелками, спидометра и т.д.).

Информация в дискретном виде меняет свое значение с определенным шагом (показатели электронных часов, весы с гирями, подсчет количества предметов и т.п.).

Информатика

Основа информатики — информационные технологии — совокупность средств и методов, с помощью которых осуществляется информационные процессы во всех сферах жизни и деятельности человека.

Информационная системавзаимосвязанная совокупность средств, методов и персонала, используемая для хранения, обработки и выдачи информации с целью достижения конкретной задачи.

Современное понимание информационной системы (ИС) предусматривает использование компьютера в качестве основного технического средства обработка информации. Как правило, это компьютеры, оснащенные специализированными программными средствами.

В работе ИС, в ее технологическом процессе можно выделить следующие этапы :

  • сбор данных: накопление данных с целью достаточной полноты для принятия решений;
  • сохранения;
  • передача;
  • обработка.

Одним из важнейших условий применения электронно — вычислительных машин (ЭВМ) для решения тех или иных задач является построение соответствующего алгоритма (программы), содержащий информацию о правилах получения результирующей (итоговой) информации из заданной (входной) информации.

Программирование — дисциплина, исследующая методы формулировки и решения задач с помощью ЭВМ, и является основной составной частью информатики.

Итак, информация, ЭВМ, алгоритм — три фундаментальных понятия информатики.

Информатика — комплексная научная и инженерная дисциплина, изучающая все аспекты проектирования, создания, оценки, функционирования компьютерных систем обработки информации, ее применение и влияние на различные области социальной практики.

В информатике выделяют три основных части:

  • алгоритмы обработки информации ( algorithm )
  • вычислительную технику ( hardware )
  • компьютерные программы ( software ).

Предмет информатики составляют понятия:

  • аппаратное обеспечение средств вычислительной техники
  • программное обеспечение средств вычислительной техники;
  • средства взаимодействия аппаратного и программного обеспечения;
  • средства взаимодействия человека и аппаратного и программного обеспечения.

Методы и средства взаимодействия человека с аппаратными и программными средствами называется интерфейсом.

Двоичное кодирование информации

В вычислительной технике наиболее часто применяется двоичная форма представления информации, основанной на представленные данных последовательностью двух знаков: 0 и 1

Эти знаки называются двоичными цифрами, по — английски — binary digit , или, сокращенно bit (бит).

Также используется восьмеричная форма представления информации (основана на представленные последовательности цифр 0, 1, …, 7) и шестнадцатеричная форма представления информации (основана на представленные последовательностью 0, 1, …, 9, A, B, C, …, F).

В современной вычислительной технике биты принято объединять в восьмерки, которые называются байтами : 1 байт = 8 бит. Наряду с битами и байтами используют и большие единицы измерения информации.

  • 1 bit binary digit ;
  • 1 байт = 8 бит;
  • 1 Кбайт = 2 10 байт = 1024 байт;
  • 1 Мбайт = 2 10 Кбайт = 1024 Кбайт = 2 20 байт;
  • 1 Гбайт = 2 10 Мбайт = 1024 Мбайт = 2 30 байт;
  • 1 Тбайт = 2 10 Гбайт = 1024 Гбайт = 2 40 байт.
  • 1 Пбайт = 2 10 Тбайт = 1024 Тбайт = 2 50 байт.

С помощью двух бит кодируются четыре различных значения: 00, 01, 10, 11. Тремя битами можно закодировать 8 состояний:

Вообще с помощью n бит можно закодировать 2 n состояний.

Скорость передачи информации измеряется количеством битов, передаваемых за одну секунду. Скорость передачи бит за одну секунду называется 1 Бодом. Производные единицы скорости передачи называются Кбод, Мбод и Гбод:

  • 1 Кбод (один килобод) = 2 10 бод = 1024 бит / с;
  • 1 Мбод (один мегабод) = 2 20 бод = 1024 Кбод;
  • 1 Гбод (один гигабод) = 2 30 бод = 1024 Мбод.

Пример. Пусть модем передает информацию со скоростью 2400 бод. Для передачи одного символа текста нужно передать около 10 битов. Таким образом, модем способен за 1 секунду передать около 2400/10 = 240 символов.

На ЭВМ можно обрабатывать не только числа, но и тексты. При этом нужно закодировать около 200 различных символов. В двоичном коде для этого нужно не менее 8 разрядов ( 2 8 = 256 ). Этого достаточно для кодирования всех символов английского и русского алфавитов (строчные и прописные), знаков препинания, символов арифметических действий некоторых общепринятых спецсимволов.

В настоящее время существует несколько систем кодирования.

Наиболее распространенными являются следующие системы кодирования: ASCII, Windows-1251, KOИ8, ISO.

ASCII (American Standard Code for Information Interchange — стандартный код информационного обмена)

В системе ASCII закреплены 2 таблицы кодирования: базовая и расширенная. Базовая таблица закрепляет значения кодов от 0 до 127, расширенная от 128 до 255.

В первых 32 кодах (0-31) размещаются так называемые управляющие коды, которым не соответствуют никакие символы языков, и, соответственно коды не выводятся ни на экран, ни на устройстве печати.

Начиная с кода 32 по код 127 размещены коды символов английского алфавита.

Символы национального алфавита размещены в кодах от 128 до 255.

Кодирования Windows-1251 стала стандартом в российском секторе Wold Wide Web .

ISO ( International Standard Organization ) — международный стандарт. Это кодирования используется редко.

Появление информатики обусловлено возникновением и распространением новой технологии сбора, обработки и передачи информации, связанной с фиксацией данных на машинных носителях. Основной инструмент информатики — компьютер.

Компьютер, получивший свое название от первоначального назначения — выполнения вычислений, имеет второе очень важное применение. Он стал незаменимым помощником человека в его интеллектуальной деятельности и основным техническим средством информационных технологий. А быстрое развитие в последние годы технических и программных возможностей персональных компьютеров, распространение новых видов информационных технологий создают реальные возможности их использования, открывая перед пользователем качественно новые пути дальнейшего развития и адаптации к потребностям общества.

Дезинформация

Дезинформация — заведомо неверная, ложная информация, предоставляемая оппоненту или противнику для более эффективного ведения военных действий, получения каких либо конкурентных преимуществ, для проверки на утечку информации и выявления источника утечки, определения потенциально ненадежных клиентов или партнеров. Также дезинформацией называется сам процесс манипулирования информацией, как то: введение кого-либо в заблуждение путём предоставления неполной информации или полной, но уже не актуальной информации, искажения контекста, искажения какой либо части информации.

Дезинформация, как мы видим, — это результат деятельности человека, желание создать ложное впечатление и, соответственно подтолкнуть к требуемым действиям и/или бездействию.

Читайте также: