Подходы к оценке количества информации реферат по информатике

Обновлено: 30.06.2024

Классификация информации иерархическим и фасетным методами. Классификационные схемы, построенные на основе иерархического принципа. Логичность и последовательность деления группировок на нижестоящие, его полнота. Фасетная классификационная схема.

Рубрика Программирование, компьютеры и кибернетика
Вид реферат
Язык русский
Дата добавления 13.01.2017
Размер файла 272,6 K

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Понимая информацию как один из основных стратегических ресурсов, без которого невозможна деловая, управленческая, вообще любая социально значимая деятельность, необходимо уметь оценивать ее как с качественной, так и с количественной стороны. На этом пути существуют большие проблемы из-за нематериальной природы этого ресурса и субъективности восприятия конкретной информации различными индивидуумами человеческого общества. С этой точки зрения классификация информации является важнейшим средством создания систем хранения и поиска информации, без которых сегодня невозможно эффективное функционирование информационного обеспечения управления.

2. КЛАССИФИКАЦИЯ ИНФОРМАЦИИ

2.1. Информация. Классификация информации

Применительно к информации как к объекту классификации выделенные классы называют информационными объектами. С этой точки зрения классификация информации является важнейшим средством создания систем хранения и поиска информации, без которых сегодня невозможно эффективное функционирование информационного обеспечения управления. Классификация носит всеобщий характер вследствие той роли, которую она играет как инструмент научного познания, прогнозирования и управления. Одновременно классификация выполняет функцию объективного отражения и фиксации результатов этого познания. при этом характер классификационной схемы, состав признаков классификации и глубина классификации определяется теми практическими целями, для реализации которых используется классификация, типом объектов классификации, а также условиями, в которых классификация будет использоваться.

Создание в России единого информационного пространства и объединение его с европейским и мировым информационным пространством давно уже стало одной из важнейших задач, от решения которых во многом зависит дальнейшее развитие страны. Решение же этой задачи возможно только при условии гармонизации российских и зарубежных информационных систем и обеспечении информационной совместимости всех взаимодействующих информационных систем. Под информационной совместимостью понимается взаимное соответствие различных частей на стыках, позволяющее объединять их друг с другом, что обеспечивает функционирование системы как единого целого. Достижении информационной совместимости обеспечивается унификацией и стандартизацией средств информационной техники, носителей информации, языка формализованного описания данных, структуры информационных систем и технологических процессов в них. И для осуществления всех этих задач необходима классификация информации, которая осуществляется при помощи методов классификации.

2.2 Методы классификации

Классификационные схемы, построенные на основе иерархического принципа, имеют неограниченную ёмкость, величина которой зависит от глубины классификации, числа ступеней деления и количества объектов классификации, которое можно расположить на каждой ступени. Количество же объектов на каждой ступени классификации определяется основанием кода, то есть числом знаков в алфавите кода. Выбор необходимой глубины классификации и структуры кода зависит от характера объектов классификации и характера задач, для решения которых предназначен классификатор.

Серьёзным недостатком иерархического метода классификации является жесткость классификационной схемы. Она обусловлена заранее установленным выбором признаков классификации и порядком их использования по ступеням классификации. Это ведёт к тому, что при изменении состава объектов классификации, их характеристик или характера решаемых при помощи классификатора задач требуется коренная переработка классификационной схем, поэтому при разработке классификаторов следует учитывать, что иерархический метод классификации более предпочтителен для объектов с относительно стабильными признаками и для решения стабильного комплекса задач. К классификационным схемам, построенным на основе иерархического метода классификации, предъявляются определенные требования, соблюдение которых повышает их качество и эффективность применения. Первым таким требованием является непересекаемость классификационных группировок, расположенных на одной ступени классификации. Это означает, что классификационные группировки, расположенные на одной и той же ступени классификации, не должны включать аналогичных понятий.

Второе общее правило заключается в том, что для разделения любой классификационной группировки на подчиненные группировки должен использоваться только один признак. Но это требование соблюдается только при использовании последовательного метода кодирования, при использовании же параллельного метода кодирования на определенной ступени классификации при иерархическом методе классификации могут одновременно использоваться несколько признаков, выбор которых определяется характером решаемых задач.

Третьим требованием к иерархическому методу классификации является логичность и последовательность деления группировок на нижестоящие и полнота этого деления. В соответствии с этим требованием на верхних ступенях классификации должны использоваться признаки, к которым в дальнейшем будет обращено наибольшее число запросов. Полнота деления означает, что сумма подмножества всегда должна давать делимое множество объектов, не должна оставаться какая-то часть объектов, не вошедшая в состав классификационных группировок.

Вместе с этим у иерархического метода классификации есть достоинства, которые обеспечили ему широкое использование в различных классификационных схемах.

информация иерархический фасетный

Такой принцип построения классификационных группировок делает классификатор на основе фасетного метода классификации очень гибким, хорошо приспособленным для использования в условиях большой динамичности характера решаемых задач. При изменении характера задач или характеристик объектов классификации разрабатываются новые фасеты или дополняются новыми признаками уже существующие фасеты без коренной перестройки структуры всего классификатора.

При разработке классификаторов на основе фасетного метода классификации также должны соблюдаться определенные правила, основным из которых является соблюдение принципа непересекаемости фасетов. В соответствии с этим правилом состав признаков одного фасета не должен повторяться в других фасетах этого же классификатора. Вторым правилом является включение в состав классификатора только таких фасетов и признаков в них, которые необходимы для решения конкретных задач.

В современных классификационных схемах часто одновременно используются оба метода классификации, это обеспечивает возможность снизить влияние недостатков методов классификации и расширить возможность использования классификатора как конкретной формы реализации классификации информации в информационном обеспечении управления.

Для того, чтобы оценить и измерить количество информации в соответствии с вышеизложенными аспектами, используются различные подходы и методы.

Среди них выделяются:

Исторически наибольшее развитие получил статистический подход.

Этот подход изучается в разделе кибернетики, называемой “теорией информации”. Основоположником этого подхода считается Шеннон, опубликовавший в 1948 году математическую теорию связи.

Шенноном было введено понятие “количества информации” как меры неопределённости состояния системы, снижаемой при получении информации. Количественно выраженная неопределённость состояния получила название энтропии по аналогии с подобным понятием в статистической механике.

При получении информации уменьшается неопределённость, то есть энтропия системы. Очевидно, что чем больше информации получает наблюдатель, тем больше снимается неопределённость, и энтропия системы уменьшается. При энтропии, равной нулю, в системе имеется полная информация, и наблюдателю она представлена полностью упорядоченной.

Таким образом, получение информации связано с изменением степени неосведомлённости получателя о состоянии этой системы.

До получения информации её получатель мог иметь некоторые предварительные (априорные) сведения по системе X. Оставшаяся неосведомленность и является для него мерой неопределённости состояния, т.е. мерой энтропии системы.

4. МЕТОДЫ ОЦЕНКИ КОЛИЧЕСТВА ИНФОРМАЦИИ

4.1 Комбинаторный подход

Пусть переменное x способно принимать значения, принадлежащие конечному множеству X, которое состоит из N элементов. Говорят, что энтропия переменного равна

Если переменные x1,x2. xk способны независимо пробегать множества, которые состоят соответственно из N1,N2. Nk элементов, то

Для передачи количества информации I приходится употреблять

Целью настоящей работы является рассмотрение видов информации, областей применения и подходов к ее количественной оценке. Для этого нужно рассмотреть следующие задачи и вопросы. Первой задачей является изучение общих понятий по данной теме. Рассмотрение конкретных способов оценки количества информации – вторая задача.

Содержимое работы - 1 файл

Подходы к оценке количества информации.doc

Информация на сегодняшний день, пожалуй, самое дорогое и ценное приобретение человечества. Она позволяет обществу жить и развиваться. Поэтому сейчас она ценится на вес золота, и тот, кто ею владеет, владеет всем миром.

Понимая информацию как один из основных стратегических ресурсов, без которого невозможна деловая, управленческая, вообще любая социально значимая деятельность, необходимо уметь оценивать ее как с качественной, так и с количественной стороны. На этом пути существуют большие проблемы из-за нематериальной природы этого ресурса и субъективности восприятия конкретной информации различными индивидуумами человеческого общества. С этой точки зрения классификация подходов к оценке количества информации является важнейшим средством создания систем хранения и поиска информации, без которых сегодня невозможно эффективное функционирование информационного обеспечения управления.

Целью настоящей работы является рассмотрение видов информации, областей применения и подходов к ее количественной оценке. Для этого нужно рассмотреть следующие задачи и вопросы. Первой задачей является изучение общих понятий по данной теме. Рассмотрение конкретных способов оценки количества информации – вторая задача.

1 Информация. Виды информации

Информация - это настолько общее и глубокое понятие, что его нельзя объяснить одной фразой. В это слово вкладывается различный смысл в технике, науке и в житейских ситуациях.

Информация — сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые воспринимают информационные системы (живые организмы, управляющие машины и др.) в процессе жизнедеятельности и работы.

Информация может существовать в виде:

а) текстов, рисунков, чертежей, фотографий;

б) световых или звуковых сигналов;

г) электрических и нервных импульсов;

д) магнитных записей;

е) жестов и мимики;

ё) запахов и вкусовых ощущений;

ж) хромосом, посредством которых передаются по наследству признаки и свойства организмов, и т. д.

Информация по своему характеру может быть:

а) статической (постоянной) или динамической (переменной);

б) первичной (входной), производной (промежуточной) или выходной;

в) осведомляющей или управляющей;

г) объективной или субъективной.

По назначению информация делится на массовую и специальную.

Логическая информация, адекватно отображающая объективные закономерности природы, общества и мышления, получила название научной информации. Ее делят по областям получения или использования на следующие виды:

д) физиологическую и т.п.

Информация обладает следующими свойствами:

ж) краткость и т. д.

Информация достоверна, если она отражает истинное положение дел. Недостоверная информация может привести к неправильному пониманию или принятию неправильных решений. Достоверная информация со временем может стать недостоверной, так как она обладает свойством устаревать, т. е. перестает отражать истинное положение дел.

Информация полна, если ее достаточно для понимания и принятия решений. Как неполная, так и избыточная информация сдерживает принятие решений или может повлечь ошибки.

Точность информации определяется степенью ее близости к реальному состоянию объекта, процесса, явления и т. п.

Ценность информации зависит от того, насколько она важна для решения задачи, а также от того, насколько в дальнейшем она найдет применение в каких-либо видах деятельности человека.

Только своевременно полученная информация может принести ожидаемую пользу. Одинаково нежелательны как преждевременная подача информации (когда она еще не может быть усвоена), так и ее задержка.

Если ценная и своевременная информация выражена непонятным образом, она может стать бесполезной. Информация становится понятной, если она выражена языком, на котором говорят те, кому предназначена эта информация.

Информация должна преподноситься в доступной (по уровню восприятия) форме. Поэтому одни и те же вопросы по-разному излагаются в школьных учебниках и научных изданиях.

Информацию по одному и тому же вопросу можно изложить кратко (сжато, без несущественных деталей) или пространно (подробно, многословно). Краткость информации необходима в справочниках, энциклопедиях, всевозможных инструкциях.

Информация - очень емкое понятие, в которое вмещается весь мир: все разнообразие вещей и явлений, вся история, все тома научных исследований, творения поэтов и прозаиков. И все это отражается в двух формах - непрерывной и дискретной. Обратимся к их сущности.
Объекты и явления характеризуются значениями физических величин. Например, массой тела, его температурой, расстоянием между двумя точками, длиной пути (пройденного движущимся телом), яркостью света и т.д. Природа некоторых величин такова, что величина может принимать принципиально любые значения в каком-то диапазоне. Эти значения могут быть сколь угодно близки друг к другу, исчезающе малоразличимы, но все-таки, хотя бы в принципе, различаться, а количество значений, которое может принимать такая величина, бесконечно велико.
Такие величины называются непрерывными величинами, а информация, которую они несут в себе, непрерывной информацией.
Слово “непрерывность” отчетливо выделяет основное свойство таких величин - отсутствие разрывов, промежутков между значениями, которые может принимать величина. Масса тела - непрерывная величина, принимающая любые значения от 0 до бесконечности. То же самое можно сказать о многих других физических величинах - расстоянии между точками, площади фигур, напряжении электрического тока.
Кроме непрерывных существуют иные величины, например, количество людей в комнате, количество электронов в атоме и т.д. Такого рода величины могут принимать только целые значения, например, 0, 1, 2, . и не могут иметь дробных значений. Величины, принимающие не всевозможные, а лишь вполне определенные значения, называют дискретными. Для дискретной величины характерно, что все ее значения можно пронумеровать целыми числами 0,1,2. Примеры дискретных величин: геометрические фигуры (треугольник, квадрат, окружность); буквы алфавита; цвета радуги.
Традиционно информация об объектах и явлениях окружающего мира представляется в форме слов и их последовательностей.Основной элемент в этой форме - слово. Слово - имя объекта, действия, свойства и т.п., с помощью которого выделяется именуемое понятие в устной речи или в письменной форме.

Слова строятся из букв определенного алфавита (например, А, Б, . , Я). Кроме букв используются специальные символы - знаки препинания, математические символы +, -, знак интеграла, знак суммы и т.п. Все разнообразие используемых символов образует алфавит, на основе которого строятся самые разные объекты:

а) из цифр - числа;

б) из букв - собственно слова;

в) из цифр, букв и математических символов - формулы и т.д.

И все эти объекты несут в себе информацию :

а) числа - информацию о значениях;

б) слова - информацию об именах и свойствах объектов;

в) формулы - информацию о зависимостях между величинами и т.д.

Эта информация (и это очевидно) имеет дискретную природу и представляется в виде последовательности символов. О такой информации говорят как об особом виде дискретной информации и называют этот вид символьной информацией.

Наличие разных систем письменности, в том числе таких, как иероглифическое письмо, доказывает, что одна и та же информация может быть представлена на основе самых разных наборов символов и самых разных правил использования символов при построении слов, фраз, текстов.

Из этого утверждения можно сделать следующий вывод:

Разные алфавиты обладают одинаковой “ изобразительной возможностью”, т.е. с помощью одного алфавита можно представить всю информацию, которую удалось представить на основе другого алфавита. Можно, например, ограничиться алфавитом из десяти цифр - 0, 1, . 9 и с использованием только этих символов записать текст любой книги или партитуру музыкального произведения. При этом сужение алфавита до десяти символов не привело бы к каким-либо потерям информации. Более того, можно использовать алфавит только из двух символов, например, символов 0 и 1. И его “изобразительная возможность” будет такой же.

Итак, символьная информация может представляться с использованием самых различных алфавитов ( наборов символов) без искажения содержания и смысла информации: при необходимости можно изменять форму представления информации - вместо общепринятого алфавита использовать какой-либо другой, искусственный алфавит, например, двухбуквенный.

Форма представления информации, отличная от естественной, общепринятой, называется кодом. Коды широко используются в нашей жизни: почтовые индексы, телеграфный код Морзе и др. Широко применяются коды и в ЭВМ и в аппаратуре передачи данных. Так, например, широко известно понятие “программирование в кодах”.

Кроме рассмотренных существуют и другие формы представления дискретной информации. Например, чертежи и схемы содержат в себе графическую информацию.

Информация, наряду с материей и энергией является первичным понятием нашего мира и поэтому в строгом смысле не может быть определена.

Вместе с тем, слово информация является одним из тех терминов, которые достаточно часто встречаются не только в научных трудах специального характера, но и во множестве обиходных ситуаций и являются интуитивно понятными каждому человеку.

Знаки или первичные сигналы, организованные в последовательности, несут информацию не потому, что они повторяют объекты реального времени, а по общественной договоренности об однозначной связи знаков и объектов. Например: предметы и слова для их обозначения.

Кроме того, первичные сигналы могут быть порождены естественными законами реального мира. Например: напряжение на выходе термопары под действием температуры.

Информация, основанная на однозначной связи знаков или сигналов с объектами реального мира, называется семантической или смысловой.

Также, в общей науке о знаках (семиотики), кроме перечисленных, выделяют сигматический и прагматический аспекты информации:

а) в первом случае изучается вопрос о выборе знаков для обозначения объектов реального мира;

б) во втором случае о ценности информации для достижения поставленных целей.

Наибольший практический интерес представляют смысловой, семантический и прагматический аспекты. Однако до сих пор не определены объективные количественные критерии меры ценности и полезности информации.

Синтаксическая мера информации имеет практическую ценность потому, что интересующая в конечном итоге получателя семантическая информация заключена в заданной последовательности знаков или первичных сигналов. Чем больше знаков передается в определенный интервал времени, тем в среднем больше передается и смысловой информации.

1. Подходы к измерению количества информации. Мера Хартли.

Современная наука о свойствах информации и закономерностях информационных процессов называется теорией информации. Содержание понятия "информация" можно раскрыть на примере двух исторически первых подходов к измерению количества информации: подходов Хартли и Шеннона: первый из них основан на теории множеств и комбинаторике, а второй - на теории вероятностей.

Информация может пониматься и интерпретироваться в различных проблемах, предметных областях по-разному. Вследствие этого, имеются различные подходы к определению измерения информации и различные способы введения меры количества информации.

Количество информации - числовая величина, адекватно характеризующая актуализируемую информацию по разнообразию, сложности, структурированности (упорядоченности), определенности, выбору состояний отображаемой системы.

Если рассматривается некоторая система, которая может принимать одно из n возможных состояний, то актуальной задачей является задача оценки этого выбора, исхода. Такой оценкой может стать мера информации (события).

Мера - непрерывная действительная неотрицательная функция, определенная на множестве событий и являющаяся аддитивной (мера суммы равна сумме мер).

Существуют различные подходы к определению количества информации. Наиболее часто используются следующие два способа измерения информации: объёмный и вероятностный.

Используется двоичная система счисления, потому что в техническом устройстве наиболее просто реализовать два противоположных физических состояния: намагничено / не намагничено, вкл./выкл., заряжено / не заряжено и др.

Объём информации, записанной двоичными знаками в памяти компьютера или на внешнем носителе информации, подсчитывается просто по количеству требуемых для такой записи двоичных символов. При этом невозмож¬но нецелое число битов.

Для удобства использования введены и более крупные, чем бит, единицы коли¬чества информации. Так, двоичное слово из восьми знаков содержит один байт информации, 1024 байта образуют килобайт (кбайт), 1024 килобайта – мегабайт (Мбайт), а 1024 мегабайта - гигабайт (Гбайт).

Энтропийный (вероятностный) подход

Другими, менее известными способами измерения информации являются:

Прагматический подход. Эта мера определяет полезность информации (ценность) для достижения пользователем поставленной цели.

В основе всей теории информации лежит открытие, сделанное Р. Хартли в 1928 году, и состоящее в том, что информация допускает количественную оценку.

Подход Р. Хартли основан на фундаментальных теоретико–множественных, по существу комбинаторных основаниях, а также нескольких интуитивно ясных и вполне очевидных предположениях.

Если существует множество элементов и осуществляется выбор одного из них, то этим самым сообщается или генерируется определенное количество информации. Эта информация состоит в том, что если до выбора не было известно, какой элемент будет выбран, то после выбора это становится известным. Необходимо найти вид функции, связывающей количество информации, получаемой при выборе некоторого элемента из множества, с количеством элементов в этом множестве, т.е. с его мощностью.

Если множество элементов, из которых осуществляется выбор, состоит из одного–единственного элемента, то ясно, что его выбор предопределен, т.е. никакой неопределенности выбора нет - нулевое количество информации.

Если множество состоит из двух элементов, то неопределенность выбора минимальна. В этом случае минимально и количество информации.

Чем больше элементов в множестве, тем больше неопределенность выбора, тем больше информации.

Количество этих чисел (элементов) в множестве равно:

Из этих очевидных соображений следует первое требование: информация есть монотонная функция от мощности исходного множества.

Выбор одного числа дает нам следующее количество информации:

Таким образом, количество информации, содержащейся в двоичном числе, равно количеству двоичных разрядов в этом числе.

Это выражение и представляет собой формулу Хартли для количества информации.

При увеличении длины числа в два раза количество информации в нем также должно возрасти в два раза, несмотря на то, что количество чисел в множестве возрастает при этом по показательному закону (в квадрате, если числа двоичные), т.е. если

Это невозможно, если количество информации выражается линейной функцией от количества элементов в множестве. Но известна функция, обладающая именно таким свойством: это Log:

Log2(N2) = Log2(N1)2= 2 * Log2(N1).

Это второе требование называется требованием аддитивности.

Таким образом, логарифмическая мера информации, предложенная Хартли, одновременно удовлетворяет условиям монотонности и аддитивности. Сам Хартли пришел к своей мере на основе эвристических соображений, подобных только что изложенным, но в настоящее время строго доказано, что логарифмическая мера для количества информации однозначно следует из этих двух постулированных им условий.

Пример. Имеются 192 монеты. Известно, что одна из них - фальшивая, например, более легкая по весу. Определим, сколько взвешиваний нужно произвести, чтобы выявить ее. Если положить на весы равное количество монет, то получим 3 независимые возможности: а) левая чашка ниже; б) правая чашка ниже; в) чашки уравновешены. Таким образом, каждое взвешивание дает количество информации I=log23, следовательно, для определения фальшивой монеты нужно сделать не менее k взвешиваний, где наименьшее k удовлетворяет условию log23k log2192. Отсюда, k 5 или, k=4 (или k=5 - если считать за одно взвешивание и последнее, очевидное для определения монеты). Итак, необходимо сделать не менее 5 взвешиваний (достаточно 5).

2. Социальные аспекты информатики.

Термин “социальные аспекты” применительно к большей части наук, тем более фундаментальных, звучит странно. Вряд ли фраза “Социальные аспекты математики” имеет смысл. Однако, информатика – не только наука.

И впрямь, мало какие факторы так влияют на социальную сферу обществ (разумеется, находящихся в состоянии относительно спокойного развития, без войн и катаклизмов) как информатизация. Информатизация общества – процесс проникновения информационных технологий во все сферы жизни и деятельности общества. Многие социологи и политологи полагают, что мир стоит на пороге информационного общества. В. А. Извозчиков предлагает следующее определение: “Будем понимать под термином “информационное” (“компьютеризированное”) общество то, во все сферы жизни и деятельности членов которого включены компьютер, телематика, другие средства информатики в качестве орудий интеллектуального труда, открывающих широкий доступ к сокровищам библиотек, позволяющих с огромной скоростью проводить вычисления и перерабатывать любую информацию, моделировать реальные и прогнозируемые события, процессы, явления, управлять производством, автоматизировать обучение и т.д.”. Под “телематикой” понимаются службы обработки информации на расстоянии (кроме традиционных телефона и телеграфа).

Последние полвека информатизация является одной из причин перетока людей из сферы прямого материального производства в, так называемую, информационную сферу. Промышленные рабочие и крестьяне, составлявшие в середине XX века более 2/3 населения, сегодня в развитых странах составляют менее 1/3. Все больше тех, кого называют “белые воротнички” – людей, не создающих материальные ценности непосредственно, а занятых обработкой информации (в самом широком смысле): это и учителя, и банковские служащие, и программисты, и многие другие категории работников. Появились и новые пограничные специальности. Можно ли назвать рабочим программиста, разрабатывающего программы для станков с числовым программным управлением? – По ряду параметров можно, однако его труд не физический, а интеллектуальный.

Информатизация сильнейшим образом влияет на структуру экономики ведущих в экономическом отношении стран. В числе их лидирующих отраслей промышленности традиционные добывающие и обрабатывающие отрасли оттеснены максимально наукоемкими производствами электроники, средств связи и вычислительной техники (так называемой, сферой высоких технологий). В этих странах постоянно растут капиталовложения в научные исследования, включая фундаментальные науки. Темпы развития сферы высоких технологий и уровень прибылей в ней превышают в 5-10 раз темпы развития традиционных отраслей производства. Такая политика имеет и социальные последствия – увеличение потребности в высокообразованных специалистах и связанный с этим прогресс системы высшего образования. Информатизация меняет и облик традиционных отраслей промышленности и сельского хозяйства. Промышленные роботы, управляемые ЭВМ, станки с ЧПУ стали обычным оборудованием. Новейшие технологии в сельскохозяйственном производстве не только увеличивают производительность труда, но и облегчают его, вовлекают более образованных людей.

Казалось бы, компьютеризация и информационные технологии несут в мир одну лишь благодать, но социальная сфера столь сложна, что последствия любого, даже гораздо менее глобального процесса, редко бывают однозначными. Рассмотрим, например, такие социальные последствия информатизации как рост производительности труда, интенсификацию труда, изменение условий труда. Все это, с одной стороны, улучшает условия жизни многих людей, повышает степень материального и интеллектуального комфорта, стимулирует рост числа высокообразованных людей, а с другой – является источником повышенной социальной напряженности. Например, появление на производстве промышленных роботов ведет к полному изменению технологии, которая перестает быть ориентированной на человека. Тем самым меняется номенклатура профессий. Значительная часть людей вынуждена менять либо специальность, либо место работы – рост миграции населения характерен для большинства развитых стран. Государство и частные фирмы поддерживают систему повышения квалификации и переподготовки, но не все люди справляются с сопутствующим стрессом. Прогрессом информатики порожден и другой достаточно опасный для демократического общества процесс – все большее количество данных о каждом гражданине сосредоточивается в разных (государственных и негосударственных) банках данных. Это и данные о профессиональной карьере (базы данных отделов кадров), здоровье (базы данных учреждений здравоохранения), имущественных возможностях (базы данных страховых компаний), перемещении по миру и т.д. (не говоря уже о тех, которые копят специальные службы). В каждом конкретном случае создание банка может быть оправдано, но в результате возникает система невиданной раньше ни в одном тоталитарном обществе прозрачности личности, чреватой возможным вмешательством государства или злоумышленников в частную жизнь. Одним словом, жизнь в “информационном обществе” легче, по-видимому, не становится, а вот то, что она значительно меняется – несомненно.

информации. Информация - это отражение внешнего мира с помощью знаков или сигналов.

Понимая информацию как один из основных стратегических ресурсов, без которого

невозможна деловая, управленческая, вообще любая социа льно значимая деятельность,

необходимо уметь оценивать ее как с качественной, так и с количественной стороны. На этом

пути существуют бол ьшие проблемы из -за нематериальной природы этого ресурса и

субъективности восприятия конкретной информации различными индивидуумами

человеческого общества. С э той точки зрения классификация информации является в ажнейшим

средством создания сист ем хранения и поиска информации, без которых сегодня невозможно

эффективное функционирование информационного обеспечения управления.

Главной целью настоящей работы является рассмотрение классификации информации и

методов ее количественной оценки. Для этого нужно рассмотреть следующие задачи и вопросы.

Первой задачей является изучение общих понятий по данной теме. Рассмотрение конкретных

классификационных методов и методов количественной оценки информации – вторая задача.


осведомление, изложение. С позиц ии материалистической филос офии информация есть

это общенаучное понятие, включающее в себя обме н сведениями между людьми, обмен

сигналами между живой и неживой природой, людьми и устройствами.

Согласно федеральному закону «Об информации, информатизации и защите

объединяется в информаци онные системы – «орган изационно упорядоченные совокупност и

документов (массивов документов) и информационных технологий, в том числе с

использованием средств вычислительной техники и связи, реализующих информационные

Классификация – это «разделение множества объектов на подмножества по их сходству

закономерные связи между классами объектов с целью определения места объекта в системе,

которое указывает на его свойства. Под объектом понимается любой предмет, процесс, явление

материального или немат ериального свойства. Система класс ификации позволяет

сгруппировать объекты и выделить определенные классы, которые будут характеризоваться

рядом общих свойств. Классификация объектов – та процедура группировки на качественном

уровне, направленная на выделение однородных свойств.

Применительно к информации как к объекту классификации выделенные классы

называют информационными объектами. С этой точки зрения классификация информации

является важнейшим средством создания систем хранения и поиска информации, без которых

сегодня невозможно эффективное функц ионирование информационного обеспечения

управления. Классификация носит всеобщий характер вследствие той роли, которую она играет

как инструмент научного познания, прогнозирования и управления. Одновременно

классификация в ыполняет функцию объект ивного отражения и фиксации результат ов этого

познания. при этом характер классификационной схемы, состав признаков классификации и

глубина классификации определяет ся т еми практическими целями, для реализации которых

Костомаров М.Н. Классификация и кодирование документов и документной информации // Секретарское дело. –

Читайте также: