Сообщение всегда передается в материально энергетической форме

Обновлено: 04.07.2024

Термин информатика (о фр. Information (информация) + automatiqie (автоматика)) означает автоматическую обработку информации.

Информатика – наука, изучающая структуру и общие свойства информации, а так же закономерности и методы её создания, хранения, поиска, передачи и преобразования с использованием комп. технологий.

Информатика базируется на компьютерной технике и не мыслима без неё.

В информатике используются следующие понятия:

Аппаратное обеспечение средств вычислительной техники.

Программное обеспечение обеспечение средств вычислительной техники.

Средства взаимодействия аппаратного и программного обеспечения.

Средства взаимодействия человека с аппаратными и программными средствами обеспечения.

Понятие об информации. Ключевым понятием информатики является понятие информации.

Первоначально под информацией понимались сведения, передаваемые людьми различными способами: устно, с помощью сигналов или технических средств.

Необходимо отметить, что информация, - это не просто сведения, а сведения нужные, имеющие значение для лица обладающего ими.

В структурном аспекте рассматривается строение массивов информа­ции и их измерение простым подсчетом информационных элементов или комбинаторным методом. Структурный подход применяется для оценки возможностей информационных систем вне зависимости от условий их применения.

При структурном подходе различаются:

· геометрическая,

· комбинаторная

· аддитивная меры инфор­мации.

Максимально возможное количество информации в заданных структурах определяет информацион­ную емкость модели (системы), которая определяется как сумма дискрет­ных значений по всем измерениям (координатам).

В комбинаторной мере количе­ство информации определяется как число комбинаций элементов (симво­лов). Возможное количество инфор­мации совпадает с числом возмож­ных сочетаний, перестановок и размещений элементов. Комбиниро­вание символов в словах, состоящих только из 0 и 1, меняет значения слов. Рассмотрим две пары слов 1001 10 и 001101, 011101 и 111010. В них проведена перестановка крайних разрядов (изменено местоположение знакового разряда в числе — перене­сен слева направо).

Аддитивная мера (мера Хартли), в соответствии с которой количество информации измеряется в двоичных единицах — битах, - наиболее рас­пространена. Вводятся понятия глубины q и длины п числа.

Глубина q числаколичество символов (элементов), принятых для представления информации, В каждый момент времени реализуется только один какой-либо символ. (По позже понятие глубины числа будет трансформировано в понятие основания системы счисления).

Длина п числаколичество позиций, необходимых и достаточных для представления чисел заданной величины.

При заданных глубине и длине числа коли­чество чисел, которое можно представить, N = q n . Величина N не удобна для оценки информационной емкости. Введем логарифмическую меру, по­зволяющую, вычислять количество информации, — бит:

Статистическая мера информации

События можно рассматривать как возможные исходы некоторого опыта, причем все исходы этого опыта составляют ансамбль, или полную группу событий. К. Шеннон ввел понятие неопределенности ситуации, воз­никающей в процессе опыта, назвав ее энтропией (обозначают обычно бук­вой И). Энтропия ансамбля есть количественная мера его неопределенности и, следовательно, информатив­ности, количественно выражаемая как средняя функция множества вероят­ностей каждого из возможных исходов опыта.

Вычислительные машины обрабатывают и преобразуют информацию разного содержания — от числовых данных до сочинения музыки и стихов. Вся эта информация изображается соответствующими символами. Оценка содержания разнохарактерной информации — весьма сложная проблема.

Среди семантических мер наиболее распространены:

Преобразование информации

Различают две формы представления информации:

Динамический характер информации. Информация не является статичным объектом – она динамически меняется и существует только в момент взаимодействия данных и методов. Все прочее время она пребывает в состоянии данных. Таким образом, информация существует только в момент протекания информационного процесса. Все остальное время она содержится в виде данных.

Требование адекватности методов. Одни и те же данные могут в момент потребления поставлять разную информацию в зависимости от степени адекватности взаимодействующих с ними методов. В примере с письмом – можно получить информацию методом наблюдения (количество страниц, цвет и сорт бумаги, наличие незнакомых символов и т.п.) Все это информация, но это не вся информация, заключенная в письме. Использование более адекватных методов даст иную информацию.

Диалектический характер взаимодействия данных и методов. Обратим внимание на то, что данные являются объективными, поскольку это результат регистрации объективно существовавших сигналов, вызванных изменениями в материальных телах или полях. В то же время, методы являются субъективными. Таким образом, информация возникает и существует в момент диалектического взаимодействия объективных данных и субъективных методов.

Теория информации – это наука о получении, преобразовании, накоплении, отображении и передаче информации. Теория информации рассматривает также математические модели детерминированных и случайных сигналов, вопросы, связанные с оценкой количества передаваемой информации, эффективности, помехоустойчивости и пропускной способности каналов связи.

Ниже излагаются основные сведения по теории информации.

1.1. Получение информации

Получение (восприятие) информации – процесс целенаправленного извлечения и анализа информации в какой-либо физической системе.

Подобно живым организмам, воспринимающим информацию из внешней среды с помощью специальных органов (обоняния, осязания, слуха, зрения), технические системы воспринимают информацию с помощью специальных устройств – датчиков, чувствительных элементов, анализаторов (восприятие зрительной, акустической и другой информации).

Система восприятия информации может представлять собой довольно сложный комплекс программных и технических средств, обеспечивающих несколько этапов первичной переработки поступающей информации.

Более сложный вид восприятия – измерение, т.е. получение внешней информации и сравнение ее с некоторыми эталонами. В результате происходит определение измеряемых величин в статистике или в динамике (в их изменении во времени и пространстве). В последнем случае особо выделяют системы восприятия, функционирующие в реальном времени, т.е. в том же темпе, в котором происходят изменения физической системы.

Последующие этапы восприятия (в случае необходимости): анализ, распознавание, прогнозирование ситуаций. При этом применяются различные практические и теоретические приемы: аналитические, статистические, логические, эвристические и др.

Критерием качества (эффективности) восприятия может быть количество полученной информации при обеспечении высокой достоверности (малой вероятности ошибки) восприятия.

Устройства, воспринимающие информацию от физической системы (датчики, анализаторы и др.), обычно выражают входную информацию в виде эквивалентных физических сигналов (механических, электрических и др.)

Все многообразие сигналов в природе можно разделить на две основные группы – детерминированные и случайные. Все сигналы в свою очередь делятся на непрерывные и дискретные. Рассмотрим эти понятия более подробно.

1.2. Сигналы детерминированные и случайные.

Детерминированным называется сигнал, значения которого в любые моменты времени являются известными величинами. В противном случае сигнал называют случайным или стохастическим (от греческого слова stochastic – догадка). Каждый конкретный вид случайного сигнала Х(t), представляющего собой функцию времени, называют реализацией. Каждую реализацию можно представить бесконечной совокупностью зависимых или независимых случайных величин.

Информация является основным предметом изучения для науки информатика.

В определенных науках Вселенную рассматривают с точки зрения потоков вещества и энергии. Однако можно посмотреть на мир с точки зрения потоков информации. Например, биологический объект, создавая себе подобного, передает ему генетическую информацию; получивший информацию человек может преобразовать ее в знание и, следовательно, немного изменить свое сознание.

Из литературы можно выделить несколько определений информации, характерных для различных наук. Например, для физики характерно следующее определение. Информация - это неотъемлемое свойство всех существующих элементов и систем, выражающая их смысл существования и сама существующая вечно. Это определение не включает деятельность человека. Творчество и изобретения – это новая информация, ранее не существовавшая во Вселенной.

А вот достаточно интересный подход к определению информации. Информация - это отражение разнообразия в существующем мире. Конечно, ведь если всё одинаково, то это, по сути, пустота и отсутствие информации. Отсюда следует, что чем больше разнообразия в системе, тем больше в ней информации.

Определение К. Шеннона: Информация – это снятая неопределенность. Чтобы пояснить это, можно прибегнуть к следующей аналогии: человек не знает содержание какого-либо предмета, но чем больше изучает его, тем большей информацией о нем имеет и тем меньше неизвестности (неопределенности) у него по этому предмету. Можно ли предположить, что когда-нибудь вся неопределенность во Вселенной будет снята человеком (его разумом, сознанием, деятельностью и т.п.)? Ведь если посмотреть, то постепенно, в результате развития цивилизации, неопределенность уменьшается, а объем информации, которой человечество располагает, растет.

Если рассматривать все человечество в его эволюции как некую единицу, то можно усмотреть, что это самое человечество занимается получением, накоплением, обработкой и созданием новой информации.

Можно говорить об информационном рывке в настоящее время, т.к. современные техника и технологии позволяют быстро обрабатывать информацию и обмениваться ей.

Можно сказать, что информация в широком смысле – это отражение реального мира; а в узком – любые сведения, являющиеся объектом хранения, передачи и преобразования.

В современном мире информация, как правило, обрабатывается на вычислительных машинах. Поэтому наука информатика, помимо прочего, включает в себя изучение вычислительных машин. Компьютер (или вычислительная машина) – это устройство преобразования информации посредством выполнения какой-либо программой ряда операций.

Информация существует не только в виде данных, но и в виде знаний. Здесь знания– это совокупность объективных фактов, способов и технологий, систематизированных и дающих реальное представление о предметах, процессах и явлениях, т.е. специальным образом структурированная информация.

Знания могут быть декларативными и процедурными. В первом случае это какая-либо понятая человеком информация, а во втором - это умение решать определенные задачи, т.е. владение алгоритмами конкретного действия.

Провести четкую грань между понятиями "информация", "данные" и "знания" почти невозможно.

Данные и знания в виде информационных потоков циркулируют в информационных системах. Сбор, накопление, обработка, хранение и использование информации в информационных системах осуществляются с помощью информационных технологий. Информационные технологии – это машинизированные (инженерные) способы обработки информации, которые реализуются посредством автоматизированных информационных систем.

Читайте также: