Количественная оценка информации кратко

Обновлено: 05.07.2024

За единицу информации принимают количество информации, помещенное в выборе одного из двух равновероятных событий. Эта единица называется двоичной единицей, или битом (binary digit, bit).

Измерение только количества информации не отвечает насущным потребностям современного общества  необходимая мера ценности информации. Проблема определения ценности информации, исключительно актуальная в настоящее время, когда уже тяжело даже с помощью компьютеров обрабатывать могучие информационные потоки. Разработанные методы определения ценности информации призваны сыграть существенную роль в получении человеком необходимой информации.

В информатике и вычислительной технике принята система представления данных двоичным кодом. Наименьшей единицей такого представления является бит.

Байт - это группа взаимосвязанных битов. 1 байт = 8 битов. Одним байтом кодируется один символ текстовой информации.

1 Килобайт (Кб) = 210 байт = 1024 байт.

Однако, везде, где это не принципиально, считают, что 1 Кб равен 1000 байт. Условно можно считать, что одна страница неформатированного машинописного текста = 2 Кб.

1 Мегабайт (Мб) = 1024 Кб.

1 Гигабайт (Гб) =1024 Мб.

1 Терабайт (Тб) = 1024 Гб.

Под воздействием информационных технологий меняются формы экономической деятельности, виды и типы предприятий и организаций, характер взаимоотношений между работодателями и служащими, между персоналом и клиентами. Новые эффективные средства коммуникации позволяют обеспечить гибкую организацию предприятий, делая их более конкурентоспособными. Широкое применение находят такие формы трудовых отношений как работа дома, по совместительству и подряд. В процессе становления информационного общества необходимый постоянный диалог между социальными партнерами, поскольку речь идет о создании новой рабочей среды, в которой такое понятие как рабочее место неминуемо должно испытать существенное изменение.

При введении понятия энтропии мы исходили из количества событий, о которых нам необходимо получить информацию. Таким образом, энтропия характеризует количество информации, получаемой путем исследования интересующего нас процесса, если мы можем получить в свое распоряжение сведения о любом из М интересующих нас событий. Возможен, однако, такой исход исследования (или измерений), когда о некоторых событиях из рассматриваемых М событий сведения фактически не будут получены. Допустим, что до проведения исследований предусматривалась реализация одного из M1 событий, а после проведения исследований выяснилось, что в данном случае могут быть реализованы лишь M2 из предусмотренных ранее M1 событий, но осталось невыясненным, какое именно из этих M2 событий реализовано в действительности. Энтропия исследуемого процесса до проведения исследований могла достигать значения

а после проведения исследований уменьшилась до значения, не превышающего

В таком случае количество I полученной информации определяется разностью между исходной и конечной энтропиями:

Формула (2.5) дает обобщенную количественную оценку информации и соответствует формулировке: количество информации равно убыли энтропии. Величина исчерпывающей информации соответствует H2=0и равна исходной энтропии.

В качестве примера рассмотрим оценку количества информации, получаемой от аналогового измерительного прибора с длиной рабочей части шкалы, равной L, работающего с погрешностью D, заданной в единицах длины прибора.

Полагаем также, что допустимая погрешность d в заданной измерительной системе меньше той, какую может обеспечить используемый прибор: δ Δ, т.е. сохраняется H2=0. Хотя измерительный прибор при δ>Δ может обеспечить точность измерений больше заданной, это обстоятельство не является определяющим. Ведь величина исчерпывающей информации равна исходной энтропии, на которую сориентирована работа всего измерительного и управляющего комплекса, а точность первичного прибора является лишь одним из многих факторов, определяющих точность измерений. Иными словами, информация будет фиксироваться и преобразовываться в соответствии принятым объемом энтропии, а повышенная точность отдельных звеньев измерительного комплекса не будет учитываться.

Для практических расчетов количества информации по формулам (2.1-2.3) и по формуле (2.5) введем понятие единицы измерения информации. Примем во внимание, что в устройствах хранения, передачи или переработки информации обычно применяются элементы, в которых для записи информации используется только два символа, такие как высокий и низкий потенциалы (в электронных устройствах) или намагниченный и не намагниченный участки магнитных носителей информации. Эти символы обычно обозначают знаками 1 и 0. Использование только двух символов для записи информации соответствует n=2 в формулах (2.1-2.3), и в дальнейших рассуждениях мы так и будем полагать. Тогда окажется, что при исследовании процесса с двумя равновероятными исходами мы получим, в соответствии с формулой (2.1), H1=1(M1=2) и H2=0(M2=1), что дает, в соответствии с формулой (2.5), информацию I=1.

Особой единицей информации является слово. Слово – это количество информации, обрабатываемой в данном управляющем устройстве за один цикл работы устройства. Величина слова обычно кратна по отношению к байту: 1 байт, 2 байт, 4 байт. Если необходимо оценить лишь объем записи информации на электронных или магнитных носителях, то битом называют минимальный объем записи, соответствующий двоичной единице или двоичному нулю (элементарная ячейка памяти).

Кодирование информации

– представление информации в дискретной форме (аналогово-цифровое преобразование);

– представление дискретных сигналов в наиболее подходящем для решения задач управления техпроцессом виде (преобразование кодов).

Первоначальный код, в котором информация поступает в управляющее устройство, определяется свойствами источника информации. Последний может быть либо датчиком какого-либо технологического параметра, либо некоторым ЗУ. В ЗУ информация уже представлена в дискретной форме, а сигналы датчика преобразуются в дискретную форму первичным преобразователем, свойства которого могут быть не согласованы с требованиями, предъявляемыми к информации, поступающей в управляющее устройство. Необходимое согласование производится соответствующим преобразователем кода, установленным на выходе первичного преобразователя.

По характеру взаимодействия с первичным преобразователем сигналы датчиков делятся на дискретные и непрерывные (аналоговые). Если первичный преобразователь выделяет в сигнале датчика только два (реже три) уровня, то такой сигнал считается дискретным. Характерными дискретными сигналами являются сигналы о включении или выключении технологического оборудования. Если первичный преобразователь выделяет в сигнале датчика много (три и более) уровней, то такой сигнал считается непрерывным. Характерными непрерывными сигналами являются сигналы, регистрируемые стрелочными или самопишущими измерительными приборами. Если сигнал датчика классифицируется в качестве дискретного, то первичный преобразователь должен произвести лишь необходимое усиление сигнала и его гальваническую развязку с управляющим устройством. Если же сигнал датчика воспринимается в качестве непрерывного, то первичный преобразователь, осуществляющий аналого-цифровое преобразование, должен, помимо всего прочего, обеспечить различение необходимого количества уровней сигнала, т.е. должен иметь достаточную разрешающую способность, соответствующую величине энтропии данного элемента технологического объекта. Так, при использовании стрелочных измерительных приборов разрешающая способность обеспечивается выбором подходящей цены деления шкалы, а при использовании импульсных датчиков перемещения разрешающая способность обеспечивается выбором соответствующей величины перемещения контролируемого механизма между двумя соседними импульсами (цены импульса). Разрешающую способность называют также шагом квантования по уровню (см. рис. 2.1а).

При квантовании по уровню непрерывный сигнал x(t) заменяется ступенчатой функцией Ψ(x). Значение последней (рис.2.1а) изменяется только после изменения значения x на величину, не меньшую Dx, которая является шагом квантования и определяет разрешающую способность. При заданной допустимой относительной погрешности d величина шага квантования Dx определяется из соотношения

где и - максимальное и минимальное значения сигнала в заданном диапазоне его изменения.

Точность измерений зависит не только от разрешающей способности первичного преобразователя, но и от его быстродействия, которое у аналого-цифровых преобразователей (АЦП) определяется частотой отсчета измеряемой величины, т.е. шагом квантования по времени Dt (см. рис. 2.1б). Если принять шаг Dt, равным tj-tj-1 (рис. 2.1а), то в промежутке время между tj-1 и tj измеренное значение x будет равно Dx, а в момент времени t=tj оно скачком увеличится до величины x=xj. Видно, что большой шаг квантования по времени привел к значительному увеличению погрешности. При уменьшении шага квантования по времени точность измерения увеличивается. Чтобы точность измерений соответствовала шагу квантования по уровню Dx, величина шага квантования по времени Dt должна быть выбрана исходя из неравенства

Соотношения (2.7) и (2.8) определяют требования к разрешающей способности и к быстродействию применяемых АЦП.

Для представления чисел обычно используются арифметические коды, в которых любое действительное число может быть представлено в виде

где: n > 1- целое число, основание системы исчисления;

m и l – произвольные числа, причем m l;

aj- целое число, причем

Произведение называют разрядом закодированного числа, причем называют весом разряда, aj - цифрой или цифровым значением разряда, a j – номером разряда. Если m=l, то закодированное число одноразрядное, состоит из одного разряда, а если все aj равны нулю, то Q=0. Все разряды, у которых j

© 2014-2022 — Студопедия.Нет — Информационный студенческий ресурс. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав (0.009)

Количественная оценка информации связана с возможностью снятия неопределенности при принятии решений. Ро), где / - количество информации; Ро - вероятность события до получения информации; Р - то же, после получения. [3]

В качестве меры для количественной оценки информации принят бит. Это такое количество информации, которое необходимо при выборе одного из двух равновероятных исходов. [5]

Исходным положением теории информации является количественная оценка информации . [7]

При определении информационной емкости сигнала необходима количественная оценка информации . [8]

Собственно измерительная система служит длл получения количественной оценки информации . [9]

Телевизионно-вычислительная техника используется широко для расшифровки и количественной оценки информации при ТНРК. [10]

Определенные трудности при проектировании АСУП вызывает выбор способа количественной оценки информации . Это объясняется тем, что требование к точности оценки информации вступает в противоречие с важными требованиями технологичности процесса проектирования и его трудоемкости. [11]

Синтаксический аспект рассматривает закономерности образования документов, обобщенных показателей из исходных и др. Количественная оценка информации на этом уровне позволяет получить данные для описания процессов преобразования информации, выбора рациональных маршрутов движения документов и технологических вариантов их обработки, а также для построения макетов машинных носителей информации. [13]

Все это позволяет ограничивать, более четко выражать семантическую емкость понятия и давать количественную оценку информации . [14]

Курс теории информации представляет собой единую научную дисциплину, основу которой составляют математические модели сигналов, количественная оценка информации , теория оценки эффективности и помехоустойчивости информационных систем. [15]

Для оценки количества информации применяются различные подходы, среди которых можно выделить статистический, семантический и прагматический.

Статистический подход к измерению информации

Статистический подход представлен в обширном разделе кибернетики - теории информации, которая занимается математическим описанием и оценкой методов передачи, хранения, извлечения и классификации информации. Его основоположником считается Клод Шеннон, опубликовавший в 1948 году свою математическую теорию связи.

Согласно Клоду Шеннону, количество информации измеряется величиной уменьшения неопределенности состояния (неполноты знаний) после получения информации. Количественно выраженная неопределенность состояния получила название энтропии. При получении информации снижается энтропия системы.

Эта мера количества информации оперирует с обезличенной информацией, не выражающей смыслового отношения к объекту.

Семантический подход к измерению информации

Семантика (французское sémantique от греческого σημαντικός - обозначающий) - наука о понимании определенных знаков, последовательностей символов и других условных обозначений.

Пользователь потребляет семантическую информацию в том случае, когда поступающая информация понятна пользователю и несет ранее неизвестные сведения (отсутствующие в его тезаурусе).

Зависимость количества семантической информации, воспринимаемой потребителем, от его тезауруса

Относительной мерой количества семантической информации может служить коэффициент содержательности С, который определяется как отношение количества семантической информации I к ее объему V:

Коэффициент содержательности

Прагматический подход к измерению информации

Подход основывается на статистической теории Шеннона и рассматривает количество информации как приращение вероятности достижения цели. Если принять вероятность достижения цели до получения информации равной Р0, а после ее получения – Р1, то количество информации I определяется как:

Читайте также: