Чтобы сообщение было передано от источника к получателю необходима некоторая материальная субстанция

Обновлено: 02.07.2024

Вложенные файлы: 1 файл

К.Р готовая главные ошибки в тетради рассписаны по работе.doc

Глава 1 Информация и данные

Информацией называют любые данные или сведения, которые кого-либо интересуют.

Информация – сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые воспринимают информационные системы (живые организмы, управляющие машины и т.д.) в процессе жизнедеятельности и работы.1

Информация так же определяется как: любой вид сведений о предметах, фактах, понятиях предметной области, неизвестных до их получения и являющихся объектом хранения, передачи и обработки.

Предметная область – совокупность объектов реального или предполагаемого мира, рассматриваемых в пределах данного контекста, который понимается как отдельное рассуждение, фрагмент научной теории или теория в целом и ограничивается рамками данного контекста.

Среда передачи данных – любая физическая среда, способная передавать информацию с помощью электромагнитных или других сигналов.

Сигнал – носитель данных (информации), представляющий собой физические сигналы или математические модели.

Одним из свойств компьютеров является способность хранить огромные объемы информации и обеспечивать легкий доступ к ней. Информация, подлежащая обработке, в некотором смысле представляет абстракцию фрагмента реального мира. Мы говорим о данных как об абстрактном представлении реальности, поскольку некоторые свойства и характеристики реальных объектов при этом игнорируются (как несущественные для данной задачи).

Данные – представление информации в формализованном виде, удобном для пересылки, сбора, хранения и обработки.

Решая конкретную задачу, необходимо выбрать множество данных, представляющих реальную ситуацию. Затем надлежит выбрать способ представления этой информации. Представление данных определяется исходя из средств и возможностей, допускаемых компьютером и его программным обеспечением. Однако очень важную роль играют и свойства самих данных, операции, которые должны выполняться над ними. С развитием вычислительной техники и программирования средства и возможности представления данных получили большое развитие и теперь позволяют использовать как простейшие неструктурированные данные, так и данные более сложных типов, полученные с помощью комбинации простейших данных. Такие данные называют структурированными, поскольку они обладают некоторой организацией.

В математике принято классифицировать величины в соответствии с их характеристиками. Различают целые, вещественные, комплексные и логические величины, величины, представляющие собой отдельные значения, множества значений или множества множеств. Аналогично этому в информатике любая константа, переменная, выражение или функция относится к некоторому типу. Фактически тип характеризует множество значений, которые может принимать константа, переменная, выражение или функция. Широко используется правило, по которому тип явно указывается в описании константы, переменной или функции. К данным каждого типа применимы определенные операции и их поведение подчиняется некоторым аксиомам. С развитием вычислительной техники и программирования средства и возможности представления данных получили большое развитие и теперь позволяют использовать как простейшие неструктурированные данные, так и данные более сложных типов, полученные с помощью комбинации простейших данных. Такие данные называют структурированными, поскольку они обладают некоторой организацией. Отличия информации и данных

1)Данные фиксированы, они реально существуют в каждую единицу времени. Информация возникает только при переработке этих данных

2) Данные после преобразования становятся информацией. Многократно проверенная информация — знания

3) Информация, в отличие от данных, субстанция измеряемая

1.2 Передача информации

Рис.1Общая схема передачи информации

Любое событие или явление может быть выражено по-разному, разными способами, разным алфавитом. Чтобы информацию более точно и экономно передать по каналам связи, ее надо соответственно закодировать.

Совокупность устройств, предметов или объектов, предназначенных для передачи информации от одного из них, именуемого источником, к другому, именуемому приемником, называется каналом информации, или информационным каналом.

Глава 2 Экономическая информация

Экономическая информация - это информация об экономических процессах: производство, распределение, обмен и потребление материальных благ. Экономическая информационная система - это управление и обработка экономической информации. Для экономической информации характерны простые алгоритмы, преобладание логических операций на арифметику, табличное представление входных и выходных данных. Важнейшим признаком классификации экономической информационной системы являются:

3)по времени поступления: периодически, запросные

4)функциональный признак, по функциональным подсистемам экономического объекта:
- информации о трудовых, материальных, финансовых ресурсах, о производственных процессах.
- признак стабильности: постоянная (данные никогда не меняются), условно постоянная, переменная.

Коэффициент стабильности = количество неизменившейся информации /общее количество единиц информации.
Коэффициент = 0.88 информация условна постоянна.

В зависимости от содержания экономическая информация может классифицироваться: а) по фазам и процессам воспроизводства - информация о производстве, распределении, обмене, потреблении б) по элементам (факторам) воспроизводства - информация о населении и трудовых ресурсах, природных ресурсах, продукции и услугах, денежных средствах и т.д. в) по отображаемым структурным единицам - отраслям народного хозяйства, экономическим районам, предприятиям и организациям и т.п. Важное значение имеет деление экономической информации по принадлежности к той или иной функции управления: различают плановую экономическую информацию, вырабатываемую в процессе планирования, учётно-статистическую, которая порождается функциями учёта и анализа, нормативную, контрольную, прогнозную.
Структурой экономической информации определяется ее строение, выделение тех или иных документов. Такие элементы называются информационными единицами. Из простых информационных единиц образуются сложные - составные. Самой маленькой неделимой информационной единицей является реквизит - атрибут. Реквизиты можно разделить на две группы: основание и признаки. Основание характеризует количественные свойства сущности, полученные в результате выдачи подсчета натуральных единиц, взвешивания, измерения, вычисления.

Признаки выражают как правило качественные свойства сущности и характеризуют обстоятельства при которых были получены реквизиты - основания. Более крупной информационной единицей, чем реквизиты является показатель. Показатели образуются из одного основания и относящихся к нему реквизитов признаков. Еще более крупными показателями являются - массивы и потоки.

Массив представляет собой набор показателей и реквизитов объединенных по признаку однородности. Совокупность массивов относящихся к одной функции управления называется потоком. Совокупность потоков характеризующих управленческую работу в целом называют информационной системой объекта управления. В процессе декомпозиции компонентов экономической информационной системы выделяют: функциональные и обеспечивающие части.

Функциональные - ряд подсистем которые зависят от особенностей той или иной экономической информационной системы. Эти подсистемы разделяются по определенному признаку (функциональному или структурному) и объединяют в себе соответствующие комплексы задач управления. Обеспечивающая часть экономической информационной системы состоит: информационного, программного, математического, технического, правового, лингвистического, эргономического и метрологических частей. В состав информационного обеспечения входит вне машинное и внутри машинное обеспечение. (вне машинное обеспечение составляют: классификаторы технико-экономической информации, нормативно справочная информация, методические материалы организации и использования перечисленных компонентов. Внутри машинное -совокупность программ реализующих цели и задачи ЭИС.

2.2 Характеристики экономической информации

Характеристики: объем информации, целостность информации, цикличность(многократное повторение циклов ее получения и преобразования в установленные временные периоды :месяц, квартал, год и т.д.),удельный вес значений(удельный вес рутинных процедур при ее обработке), многообразие источников и потребителей.

Свойства экономической информации:

- ценность и полезность экономической информации характеризуется стоимостью, трудоемкостью, доступностью, истинностью и релевантностью (семантическое соответствие поискового запроса и поискового образа документа)

- полнота экономической информации может быть: достаточной, недостаточной, избыточной

Как ни важно измерение информации, нельзя сводить к нему все связанные с этим понятием проблемы. При анализе информации социального (в широким смысле) происхождения на первый план могут выступить такие ее свойства как истинность, своевременность, ценность, полнота и т.д.

Понятие информации нельзя считать лишь техническим, междисциплинарным и даже наддисциплинарным термином. Информация — это фундаментальная философская категория. Дискуссии ученых о философских аспектах информации надежно показали несводимость информации ни к одной из этих категорий.

Можно попытаться дать философское определение информации с помощью указания на связь определяемого понятия с категориями отражения и активности. Информация есть содержание образа, формируемого в процессе отражения. Активность входит в это определение в виде представления о формировании некоего образа в процессе отражения некоторого субъект-объектного отношения. При этом не требуется указания на связь информации с материей, поскольку как субъект, так и объект процесса отражения могут принадлежать как к материальной, так и к духовной сфере социальной жизни. Однако существенно подчеркнуть, что материалистическое решение основного вопроса философии требует признания необходимости существования материальной среды — носителя информации в процессе такого отражения. Итак, информацию следует трактовать как имманентный (неотъемлемо присущий) атрибут материи, необходимый момент ее самодвижения и саморазвития. Эта категория приобретает особое значение применительно к высшим формам движения материи — биологической и социальной.

Известно большое количество работ, посвященных физической трактовке информации.

Подводя итог сказанному, отметим, что предпринимаются (но отнюдь не завершены) усилия ученых, представляющих самые разные области знания, построить единую теорию, которая призвана формализовать понятие информации и информационного процесса, описать превращения информации в процессах самой разной природы.

Высшей формой информации, проявляющейся в управлении в социальных системах, являются знания. Это наддисциплинарное понятие, широко используемое в педагогике и исследованиях по искусственному интеллекту, также претендует на роль важнейшей философской категории. В философском плане познание следует рассматривать как один из функциональных аспектов управления. Такой подход открывает путь к системному пониманию генезиса процессов познания, его основ и перспектив.


Ось значений функции можно разбить на отрезки с заданным шагом и отобразить каждый из выделенных отрезков из области определения функции в соответствующий отрезок из множества значений (рис. 1.4). В итоге получим конечное множество чисел, определяемых, например, по середине или одной из границ таких отрезков.

Возможность дискретизации непрерывного сигнала с любой желаемой точностью (для возрастания точности достаточно уменьшить шаг) принципиально важна с точки зрения информатики. Компьютер - цифровая машина, т. е- внутреннее представление информации в нем дискретно. Дискретизация входной информации (если она непрерывна) позволяет сделать ее пригодной для компьютерной обработки.

2.3. ЕДИНИЦЫ КОЛИЧЕСТВА ИНФОРМАЦИИ:
ВЕРОЯТНОСТНЫЙ И ОБЪЕМНЫЙ ПОДХОДЫ

Вероятностный подход

Рассмотрим в качестве примера опыт, связанный с бросанием правильной игральной .кости, имеющей N граней (наиболее распространенным является случай шестигранной кости: N = 6). Результаты данного опыта могут быть следующие: выпадение грани с одним из следующих знаков: 1,2. N.

Введем в рассмотрение численную величину, измеряющую неопределенность -энтропию (обозначим ее Н). Величины N и Н связаны между собой некоторой функциональной зависимостью:

а сама функция f является возрастающей, неотрицательной и определенной (в рассматриваемом нами примере) для N = 1, 2. 6.

Рассмотрим процедуру бросания кости более подробно:

1) готовимся бросить кость; исход опыта неизвестен, т.е. имеется некоторая неопределенность; обозначим ее H1;

2) кость брошена; информация об исходе данного опыта получена; обозначим количество этой информации через I;

I = H1 - H2 (1.2)

Следующим важным моментом является определение вида функции f в формуле (1.1). Если варьировать число граней N и число бросаний кости (обозначим эту величину через М), общее число исходов (векторов длины М, состоящих из знаков 1,2. N) будет равно N в степени М:

Так, в случае двух бросаний кости с шестью гранями имеем: Х = 6 2 = 36. Фактически каждый исход Х есть некоторая пара (X1, X2), где X1 и X2 - соответственно исходы первого и второго бросаний (общее число таких пар - X).

f(6 M ) = M ∙ f(6)

Данную формулу можно распространить и на случай любого N:

F(N M ) = M ∙ f(N) (1.4)

Прологарифмируем левую и правую части формулы (1.3): ln X = M ∙ ln N, М =ln X/1n M. Подставляем полученное для M значение в формулу (1.4):


Обозначив через К положительную константу , получим: f(X) = К ∙ lп Х, или, с учетом (1.1), H=K ∙ ln N. Обычно принимают К = 1 / ln 2. Таким образом

H = log2 N. (1.5)

Это - формула Хартли.


Та же формула (1.6) принимается за меру энтропии в случае, когда вероятности различных исходов опытанеравновероятны (т.е. Рi могут быть различны). Формула (1.6) называетсяформулой Шеннона.

Н = log2 34 ≈ 5 бит.

Однако, в словах русского языка (равно как и в словах других языков) различные буквы встречаются неодинаково часто. Ниже приведена табл. 1.3 вероятностей частоты употребления различных знаков русского алфавита, полученная на основе анализа очень больших по объему текстов.

Воспользуемся для подсчета Н формулой (1.6); Н ≈ 4,72 бит. Полученное значение Н, как и можно было предположить, меньше вычисленного ранее. Величина Н, вычисляемая по формуле (1.5), является максимальным количеством информации, которое могло бы приходиться на один знак.

Таблица 1.3. Частотность букв русского языка

i Символ Р(i) i Символ P(i) i Символ Р(i)
Пробел 0,175 0,028 Г 0.012
0,090 М 0,026 Ч 0,012
Е 0,072 Д 0,025 И 0,010
Ё 0,072 П 0,023 X 0,009
А 0,062 У 0,021 Ж 0,007
И 0,062 Я 0,018 Ю 0,006
Т 0,053 Ы 0,016 Ш 0.006
Н 0,053 З 0.016 Ц 0,004
С 0,045 Ь 0,014 Щ 0,003
Р 0,040 Ъ 0,014 Э 0,003
В 0,038 Б 0,014 Ф 0,002
Л 0,035

H = log2 27 ≈ 4,76 бит.

Как и в случае русского языка, частота появления тех или иных знаков не одинакова.

Если расположить все буквы данных языков в порядке убывания вероятностей, то получим следующие последовательности:

Рассмотрим алфавит, состоящий из двух знаков 0 и 1. Если считать, что со знаками 0 и 1 в двоичном алфавите связаны одинаковые вероятности их появления (Р(0) = Р(1) = 0,5), то количество информации на один знак при двоичном кодировании будет равно

H = 1оg2 2 = 1 бит.

Таким образом, количество информации (в битах), заключенное в двоичном слове, равно числу двоичных знаков в нем.

Объемный подход

В двоичной системе счисления знаки 0 и 1 будем называть битами (от английского выражения Binary digiTs - двоичные цифры). Отметим, что создатели компьютеров отдают предпочтение именно двоичной системе счисления потому, что в техническом устройстве наиболее просто реализовать два противоположных физических состояния: некоторый физический элемент, имеющий два различных состояния: намагниченность в двух противоположных направлениях; прибор, пропускающий или нет электрический ток; конденсатор, заряженный или незаряженный и т.п. В компьютере бит является наименьшей возможной единицей информации. Объем информации, записанной двоичными знаками в памяти компьютера или на внешнем носителе информации подсчитывается просто по количеству требуемых для такой записи двоичных символов. При этом, в частности, невозможно нецелое число битов (в отличие от вероятностного подхода).

Для удобства использования введены и более крупные, чем бит, единицы количества информации. Так, двоичное слово из восьми знаков содержит один, байт информации, 1024 байта образуют килобайт (кбайт), 1024 килобайта - мегабайт (Мбайт), а 1024 мегабайта - гигабайт (Гбайт).

В дальнейшем тексте данного учебника практически всегда количество информации понимается в объемном смысле.

Конфликтные ситуации в медицинской практике: Наиболее ярким примером конфликта врача и пациента является.

Основные научные достижения Средневековья: Ситуация в средневековой науке стала меняться к лучшему с.

Основные признаки растений: В современном мире насчитывают более 550 тыс. видов растений. Они составляют около.

1.Понятие информации. Предмет информатики.

Понятие – мысль о предметах и явлениях, отражающая их общие и существенные признаки

Информация – сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые уменьшают имеющуюся о них степень неопределенности, неполноты знаний.

Информация является предметом внимания ряда наук. Существует множество определений информации, и сегодня их насчитывается более ста. Единого же внимания, признанного во всех областях научных знаний, пока нет, и вряд ли оно необходимо. В наиболее общем виде информацию изучает философия. За тридцать с небольшим лет в этой области сложилось два направления, два подхода, две концепции. В первой информация рассматривается как неотъемлемая часть материального мира, как его атрибут, подобный массе, энергии и т.п.. Вторая трактует информацию исключительно как процесс. Обе теории не противоречат друг другу, а дополняют.

В прикладном плане, пожалуй, наиболее глубоко информацию исследует кибернетика – наука об управлении. Здесь информация понимается как компонент системы, направляющий ее деятельность в ту или иную сторону.

В информатике нас прежде всего интересует определение Шеннона. Согласно американскому ученому и инженеру Клоду Шеннону, информация – это снятая неопределенность. Шеннон впервые ввел такую трактовку в теории связи. Позднее она нашла применение во всех областях науки, где играет роль передача информации в самом широком смысле этого слова, в частности, в математической теории информации, большую роль в становлении которой сыграл и великий российский ученый – математик А.Н. Колмогоров.

Информационный процесс определяется как совокупность действий, проводимых над информацией для получения какого-либо результата. В настоящее время выделены типовые действия над информацией, общие для различных систем: обработка, передача, хранение.

Процесс обработки информации может представлять собой:

· поиск и отбор информации в различных источниках. Поиск информации отнесен к процессу обработки, поскольку при его осуществлении, независимо от того, осуществляется это вручную или с помощью компьютера, происходит процесс идентификации имеющейся (найденной) информации с требуемой в соответствии с определенными критериями поиска;

· получение новой информации. При решении задач любой дисциплины человек, обрабатывая имеющиеся исходные данные в соответствии с требуемым результатом, получает некоторую новую информацию. Получение новой по содержанию информации из исходной информации возможно путем как математических вычислений, так и логических рассуждений.

· структурирование означает изменение формы информации без изменения ее содержания. Если процесс обработки информации связан с тем, что ее содержание не изменяется, а изменяется только форма представления, то происходит упорядочивание, систематизация или структурирование информации.

· кодирование (упаковка) информации. В настоящее время достаточно распространен процесс кодирования, т.е. преобразования информации из одной символьной формы в другую, удобную для ее обработки, хранения или передачи. К этой деятельности можно отнести упаковку (архивирование), шифрование с использованием различных алгоритмов.

К процессу хранения информации можно отнести:

· размещение (накопление). Информация, полученная в результате поиска, размещается на каком-либо носителе информации, происходит ее накопление. Процесс, в результате которого информация оказывается на носителе в виде, пригодном для последующего извлечения, называется размещением. Таким образом, мы создаем некоторый информационный ресурс.

· коррекцию. Информация в хранилищах нуждается в коррекции по различным причинам, такм как: механические повреждения или изменения свойств носителя, устаревание информации, модернизация структуры для оптимизации доступа к информации и пр.

· доступ. Организация оптимального доступа к различной по ценности информации с использованием процедур защиты от несанкционированного доступа.

Непрерывная и дискретная информация

Читайте также: