Введение в информатику конспект кратко

Обновлено: 05.07.2024

Информатика занимается формализованным представлением объектов и структур их взаимосвязей в различных областях науки, техники, производства. Для моделирования объектов и явлений используются различные формальные средства, например логические формулы, структуры данных, языки программирования и др.

В информатике такое фундаментальное понятие, как информация имеет различные значения:

1) формальное представление внешних форм информации;

2) абстрактное значение информации, ее внутреннее содержание, семантика;

3) отношение информации к реальному миру.

Но, как правило, под информацией понимают ее абстрактное значение – семантику. Интерпретируя представления информации, мы получим ее смысл, семантику. Поэтому, если мы хотим обмениваться информацией, нам необходимы согласованные представления, чтобы не нарушалась правильность интерпретации. Для этого интерпретацию представления информации отождествляют с некоторыми математическими структурами. В этом случае обработка информации может быть выполнена строгими математическими методами.

Одно из математических описаний информации – это представление ее в виде функции у =f(x, t), где t – время, х – точка некоторого поля, в которой измеряется значение у. В зависимости от параметров функции хи(информацию можно классифицировать.

Если параметры – скалярные величины, принимающие непрерывный ряд значений, то полученная таким образом информация называется непрерывной (или аналоговой). Если же параметрам придать некоторый шаг изменений, то информация называется дискретной. Дискретная информация считается универсальной, так как для каждых конкретных параметров можно получить значение функции с заданной степенью точности.

Дискретную информацию обычно отождествляют с цифровой информацией, которая является частным случаем символьной информации алфавитного представления. Алфавит – конечный набор символов любой природы. Очень часто в информатике возникает ситуация, когда символы одного алфавита надо представить символами другого, т. е. провести операцию кодирования. Если количество символов кодируемого алфавита меньше количества символов кодирующего алфавита, то сама операция кодирования не является сложной, в противном случае необходимо использовать фиксированный набор символов кодирующего алфавита для однозначного правильного кодирования.

Как показала практика, наиболее простым алфавитом, позволяющим кодировать другие алфавиты, является двоичный, состоящий из двух символов, которые обозначаются, как правило, через О и 1. С помощью n символов двоичного алфавита можно закодировать 2п символов, а этого достаточно, чтобы закодировать любой алфавит.

В качестве стандартного сегодня в информатике принят код, в котором каждый символ кодируется 1 байтом. Существуют и другие алфавиты.

Информатика как наука находится в периоде бурного развития, расширяет свою предметную область и из технической дисциплины о методах и средствах обработки данных при помощи средств вычислительной техники превращается в фундаментальную естественную науку об информации и информационных процессах в природе и обществе.

Информатика — это фундаментальная естественная наука, изучающая процессы передачи и обработки информации.

Академик Б. Н. Наумов определял информатику "как естественную науку, изучающую общие свойства информации, процессы, методы и средства ее обработки (сбор, хранение, преобразование, перемещение, выдача)".

Информатику следует относить к естественнонаучным дисциплинам в соответствии с представлением о единстве законов обработки информации в искусственных, биологических и общественных системах. Отнесение информатики к фундаментальным наукам отражает общенаучный характер понятия информации и процессов ее обработки. В предмет информатики включается изучение отношений между источником и получателем информации.

Но информатика имеет черты технических и общественных наук, поэтому она является комплексной, междисциплинарной отраслью научного знания.

Определение информации

Понятие информация является одним из фундаментальных в современной науке и базовым для информатики. Наряду с такими понятиями, как вещество и энергия, пространство и время, оно составляет основу современной картины мира, ее относят к фундаментальным философским категориям. Понятие информации многозначно и имеет множество определений, раскрывающих ту или иную грань этого понятия. В зависимости от области знания существуют различные подходы к определению понятия информации.

В неживой природе понятие информации связывают с понятием отражения, отображения. В быту под информацией понимают сведения, которые нас интересуют, т.е. сведения об окружающем мире и протекающем в нем процессах, воспринимаемые человеком или специальными устройствами (субъективный подход). Информация для человека — это знания, которые он получает из различных источников. С помощью всех своих органов чувств человек получает информацию из внешнего мира.

В теории связи под информацией принято понимать любую последовательность символов, не учитывая их смысл.

В теории информации под информацией понимают не любые сведения, а лишь те, которые снимают полностью или уменьшают существующую до их получения неопределенность. По определению К. Шеннона, информация — это снятая неопределенность.

Между информатикой и кибернетикой существует тесная связь. Основанная американским ученым Норбертом Винером в конце 40-х годов 20 в., кибернетика породила современную информатику, выполнила роль одного из ее источников. Сейчас кибернетика входит в информатику как составная часть. Кибернетика имеет дело со сложными системами: машинами, живыми организмами, общественными системами. Кибернетику интересуют процессы взаимодействия между такими системами или их компонентами. Рассматривая такие взаимодействия как процессы управления, кибернетику определяют как науку об общих свойствах процессов управления в живых и неживых системах. Информация между кибернетическими системами передается в виде некоторых последовательностей сигналов. Выходные сигналы одних участников обмена являются входными для других.

Под информацией в кибернетике понимается любая совокупность сигналов, воздействий или сведений, которые некоторая система воспринимает от окружающей среды (входная информация), выдает в окружающую среду (выходная информация) или, наконец, хранит в себе (внутренняя, внутрисистемная информация) [2, c. 22].

Еще один подход к определению информации таков: средства вычислительной техники обладают способностью обрабатывать информацию автоматически, без участия человека, и ни о каком знании или незнании здесь речь идти не может. Эти средства могут работать с искусственной, абстрактной и даже ложной информацией, не имеющей объективного отражения ни в природе, ни в обществе.

Информация — это продукт взаимодействия данных и адекватных методов.

Информацию следует считать особым видом ресурса, т.е. запаса некоторых сведений об объекте. Однако, в отличие от материальных ресурсов, информация является неистощимым ресурсом и предполагает существенно иные методы воспроизведения и обновления.

Свойства информации:

  • запоминаемость — возможность хранения информация (мы запоминаем макроскопическую информацию);
  • передаваемость — способность информации к копированию;
  • воспроизводимость — неиссякаемость: при копировании информация остается тождественной самой себе;
  • преобразуемость — преобразование информации связанное с ее уменьшением;
  • стираемость — преобразование информации, когда ее количество становится равным нулю;
  • объективность и субъективность — информация объективна, если она не зависит от чьего-либо мнения, суждения;
  • достоверность — информация достоверна, если она отражает истинное положение дел;
  • полнота — характеризует качество информации и определяет достаточность данных для принятия решений или для создания новых данных на основе имеющихся;
  • адекватность — степень соответствия реальному объекту;
  • доступность — мера возможности получить ту или иную информацию;
  • актуальность — степень соответствия информации текущему моменту времени.

Информационные процессы

Информация проявляется в информационных процессах. Под информационными процессами понимаются любые действия с информацией. В структуре возможных операций с информацией можно выделить следующие:

  • поиск — извлечение хранимой информации;
  • сбор — накопление информации с целью обеспечения достаточной полноты для принятия решений;
  • формализация — приведение данных, поступающих из различных источников, к одинаковой форме, чтобы сделать их сопоставимыми между собой;
  • фильтрация — отсеивание "лишних" данных, в которых нет необходимости для принятия решения;
  • сортировка — упорядочение данных по заданному признаку с целью удобства использования; повышает доступность информации;
  • архивация данных — организация хранения данных в удобной и легкодоступной форме; служит для снижения экономических затрат по хранению данных и повышает общую надежность информационного процесса в целом;
  • защита данных — комплекс мер, направленных на предотвращение утраты, воспроизведения и модификации данных;
  • транспортировка данных — прием и передача данных между удаленными участниками информационного процесса;
  • преобразование данных — перевод данных из одной формы в другую или из одной структуры в другую.

Это далеко не полный список типовых операций с данными. Полный список операций с информацией составить невозможно, да и не нужно. Существуют три основных типа информационных процессов, которые как составляющие присутствуют в любых других более сложных процессах. Это хранение информации , передача информации и обработка информации .

Процесс хранения информации

С хранением информации связаны следующие понятия: носитель информации (память), внутренняя память, внешняя память, хранилище информации.

Носитель информации — это физическая среда, непосредственно хранящая информацию. Основным носителем информации для человека является его собственная биологическая память (мозг человека). Собственную память человека можно назвать оперативной ("быстрой") памятью. Собственную память еще можно назвать внутренней памятью, поскольку ее носитель — мозг — находится внутри нас.

Все прочие виды носителей информации можно назвать внешними (по отношению к человеку). Виды этих носителей менялись со временем: камень, дерево, папирус, бумага, магнитные, оптические носители информации.

Хранение больших объемов информации оправдано только при условии, если поиск нужной информации можно осуществить достаточно быстро, а сведения получить в доступной форме.

Хранилище информации — это определенным образом организованная информация на внешних носителях, предназначенная для длительного хранения и постоянного использования. Примерами хранилищ являются архивы документов, библиотеки, справочники, картотеки. Основной информационной единицей хранилища является определенный физический документ: анкета, книга, дело, досье, отчет и пр. Под организацией хранилища понимается наличие определенной структуры, т.е. упорядоченность, классификация хранимых документов. Такая организация необходима для удобства ведения хранилища: пополнения новыми документами, удаления ненужных, поиска информации и пр.

Основные свойства хранилища информации: объем хранимой информации, надежность хранения, время доступа (т.е. время поиска нужных сведений), наличие защиты информации.

Информацию, хранимую на устройствах компьютерной памяти, принято называть данными. Для описания хранения данных в компьютере используются те же понятия: носитель, хранилище данных, организация данных, время доступа, защита данных. Организованные хранилища данных на устройствах внешней памяти компьютера принято называть базами данных и банками данных.

Процесс обработки информации

Общая схема процесса обработки информации выглядит так:

В процессе обработки информации решается некоторая информационная задача, для которой должно быть определена исходная информация (некоторый набор исходных данных) и итоговая информация (требуемые результаты). Процесс перехода от исходных данных к результату и есть процесс обработки. Тот объект или субъект, который осуществляет обработку, может быть назван исполнителем обработки. Исполнитель может быть человеком или техническим устройством, в том числе компьютером.

Для успешного выполнения обработки информации исполнителю должен быть известен способ обработки, т.е. последовательность действий, которую нужно выполнить, чтобы достичь нужного результата. Описание такой последовательности действий в информатике принято называть алгоритмом обработки.

Можно выделить два типа обработки информации.

Первый тип обработки: обработка, связанная с получением новой информации, нового содержания знаний. К этому типу обработки относится решение различных задач путем применения логических рассуждений.

Второй тип обработки: обработка, связанная с изменением формы, но не изменяющая содержания. Например, перевод текста с одного языка на другой.

Важным видом обработки для информатики является кодирование. Кодирование информации — это преобразование информации в символьную форму, удобную для ее хранения, передачи, обработки. Кодирование используется в технических средствах работы с информацией (телеграф, радио, компьютеры).

Другой вид обработки информации структурирование данных. Структурирование связано с внесением определенного порядка, определенной организации в хранилище информации. Расположение данных в алфавитном порядке, группировка по некоторым признакам классификации, использование табличного или графового представления — все это примеры структурирования.

Еще один важный вид обработки информации — поиск. Задача поиска обычно формулируется так: имеется некоторое хранилище информации - информационный массив (телефонный справочник, словарь и пр.), требуется найти в нем нужную информацию, удовлетворяющую определенным условиям поиска (телефон данной организации, перевод данного слова и пр.). Алгоритм поиска зависит от способа организации информации. Если информация структурирована, то поиск осуществляется быстрее, можно построить оптимальный алгоритм.

Процесс передачи информации

Можно говорить о том, что органы чувств человека выполняют роль биологических информационных каналов. С их помощью информационное воздействие на человека доносится до памяти.

Американским ученым Клодом Шенноном , одним из основателей теории информации, была предложена схема процесса передачи информации по техническим каналам связи, представленная на рисунке.

Работу такой схемы можно пояснить на процессе разговора по телефону. Источником информации является говорящий человек. Кодирующим устройством — микрофон телефонной трубки, с помощью которого звуковые волны (речь) преобразуются в электрические сигналы. Каналом связи является телефонная сеть (провода, коммутаторы телефонных узлов через которые проходит сигнал)). Декодирующим устройством является телефонная трубка (наушник) слушающего человека — приемник информации. Здесь пришедший электрический сигнал превращается в звук.

Связь, при которой передача производится в форме непрерывного электрического сигнала, называется аналоговой связью.

Под кодированием понимается любое преобразование информации, идущей от источника, в форму, пригодную для ее передачи по каналу связи.

В настоящее время широко используется цифровая связь, когда передаваемая информация кодируется в двоичную форму (0 и 1 - двоичные цифры), а затем декодируется в текст, изображение, звук. Цифровая связь является дискретной.

Термином "шум" называют разного рода помехи, искажающие передаваемый сигнал и приводящие к потере информации. Такие помехи , прежде всего, возникают по техническим причинам: плохое качество линий связи, незащищенность друг от друга различных потоков информации, передаваемой по одним и тем же каналам. В таких случаях необходима защита от шума.

В первую очередь применяются технические способы защиты каналов связи от воздействия шумов. Например, использование экранного кабеля вместо "голого" провода; применение разного рода фильтров, отделяющих полезный сигнал от шума и пр.

Клодом Шенноном была разработана специальная теория кодирования, дающая методы борьбы с шумом. Одна из важным идей этой теории состоит в том, что передаваемый по линии связи код должен быть избыточным. За счет этого потеря какой-то части информации при передаче может быть компенсирована.

Однако, нельзя делать избыточность слишком большой. Это приведет к задержкам и подорожанию связи. Теория кодирования К. Шеннона как раз и позволяет получить такой код, который будет оптимальным. При этом избыточность передаваемой информации будет минимально-возможной, а достоверность принятой информации - максимальной.

Технические линии информационной связи (телефонные линии, радиосвязь, оптико-волоконный кабель) имеют предел скорости передачи данных, называемый пропускной способностью информационного канала. Ограничения на скорость передачи носят физический характер.

Информатика — наука о методах и процессах сбора, хранения, обработки, передачи, анализа и оценки информации с применением компьютерных технологий, обеспечивающих возможность её использования для принятия решений. Включает дисциплины, относящиеся к обработке информации в вычислительных машинах и вычислительных сетях.

1. Информационные процессы

(скоро будут опубликованы остальные конспекты)

2. Информационные и коммуникационные технологии.

(скоро будут опубликованы остальные конспекты)

3. Программирование

(скоро будут опубликованы остальные конспекты)

4. Решение задач по информатике

(скоро будут опубликованы остальные конспекты)

Источники идей и информация (цитаты) для конспектов:

    — М.: Эксмо, 2018. — М.: Эксмо, 2016. : Букмастер: Кузьма, 2012.
  1. Весь курс школьной программы в схемах и таблицах — СПб.: Тригон, 2007.

(с) Цитаты из вышеуказанных учебных пособий использованы на сайте в незначительных объемах, исключительно в учебных и информационных целях (пп. 1 п. 1 ст. 1274 ГК РФ).

Школьные предметы:

Поиск конспекта

Новые конспекты

  • Алгебра 9 КР-5 Уровень 3 (сложный)
  • Алгебра 9 КР-5 Уровень 2 (средний)
  • Алгебра 9 КР-5 Уровень 1 (легкий)
  • Алгебра 9 КР-4 Уровень 3 (сложный)
  • Алгебра 9 КР-4 Уровень 2 (средний)
  • Алгебра 9 КР-4 Уровень 1 (легкий)
  • Электромагнитные колебания

О проекте

Возрастная категория: 12+

(с) 2021 Учитель.PRO — Копирование информации с сайта только при указании активной ссылки на сайт!


Оглавление

  • ЛЕКЦИЯ № 1. Введение в информатику
  • ЛЕКЦИЯ № 2. Язык Pascal
  • ЛЕКЦИЯ № 3. Процедуры и функции
  • ЛЕКЦИЯ № 4. Подпрограммы

Приведённый ознакомительный фрагмент книги Информатика и информационные технологии: конспект лекций предоставлен нашим книжным партнёром — компанией ЛитРес.

ЛЕКЦИЯ № 1. Введение в информатику

1. Информатика. Информация. Представление и обработка информации

Информатика занимается формализованным представлением объектов и структур их взаимосвязей в различных областях науки, техники, производства. Для моделирования объектов и явлений используются различные формальные средства, например логические формулы, структуры данных, языки программирования и др.

В информатике такое фундаментальное понятие, как информация имеет различные значения:

1) формальное представление внешних форм информации;

2) абстрактное значение информации, ее внутреннее содержание, семантика;

3) отношение информации к реальному миру.

Но, как правило, под информацией понимают ее абстрактное значение — семантику. Интерпретируя представления информации, мы получим ее смысл, семантику. Поэтому, если мы хотим обмениваться информацией, нам необходимы согласованные представления, чтобы не нарушалась правильность интерпретации. Для этого интерпретацию представления информации отождествляют с некоторыми математическими структурами. В этом случае обработка информации может быть выполнена строгими математическими методами.

Одно из математических описаний информации — это представление ее в виде функции у =f(x, t), где t — время, х — точка некоторого поля, в которой измеряется значение у. В зависимости от параметров функции хи(информацию можно классифицировать.

Если параметры — скалярные величины, принимающие непрерывный ряд значений, то полученная таким образом информация называется непрерывной (или аналоговой). Если же параметрам придать некоторый шаг изменений, то информация называется дискретной. Дискретная информация считается универсальной, так как для каждых конкретных параметров можно получить значение функции с заданной степенью точности.

Дискретную информацию обычно отождествляют с цифровой информацией, которая является частным случаем символьной информации алфавитного представления. Алфавит — конечный набор символов любой природы. Очень часто в информатике возникает ситуация, когда символы одного алфавита надо представить символами другого, т. е. провести операцию кодирования. Если количество символов кодируемого алфавита меньше количества символов кодирующего алфавита, то сама операция кодирования не является сложной, в противном случае необходимо использовать фиксированный набор символов кодирующего алфавита для однозначного правильного кодирования.

Как показала практика, наиболее простым алфавитом, позволяющим кодировать другие алфавиты, является двоичный, состоящий из двух символов, которые обозначаются, как правило, через О и 1. С помощью n символов двоичного алфавита можно закодировать 2п символов, а этого достаточно, чтобы закодировать любой алфавит.

В качестве стандартного сегодня в информатике принят код, в котором каждый символ кодируется 1 байтом. Существуют и другие алфавиты.

2. Системы счисления

Под системой счисления подразумевается набор правил наименования и записи чисел. Различают позиционные и непозиционные системы счисления.

Система счисления называется позиционной, если значение цифры числа зависит от местоположения цифры в числе. В противном случае она называется непозиционной. Значение числа определяется по положению этих цифр в числе.

3. Представление чисел в ЭВМ

32-разрядные процессоры могут работать с оперативной памятью емкостью до 232-1, а адреса могут записываться в диапазоне 00000000 — FFFFFFFF. Однако в реальном режиме процессор работает с памятью до 220-1, а адреса попадают в диапазон 00000 — FFFFF. Байты памяти могут объединяться в поля как фиксированной, так и переменной длины. Словом называется поле фиксированной длины, состоящее из 2 байтов, двойным словом — поле из 4 байтов. Адреса полей бывают четные и нечетные, при этом для четных адресов операции выполняются быстрее.

Числа с фиксированной точкой в ЭВМ представляются как целые двоичные числа, и занимаемый ими объем может составлять 1, 2 или 4 байта.

Целые двоичные числа представляются в дополнительном коде, соответственно числа с фиксированной точкой представляются в дополнительном коде. При этом если число занимает 2 байта, то структура числа записывается по следующему правилу: старший разряд отводится под знак числа, а остальные — под двоичные цифры числа. Дополнительный код положительного числа равен самому числу, а дополнительный код отрицательного числа может быть получен по такой формуле: х = 10и — \х\, где n — разрядность числа.

В двоичной системе счисления дополнительный код получается путем инверсии разрядов, т. е., заменой единиц нулями и наоборот, и прибавлением единицы к младшему разряду.

Количество битов мантиссы определяет точность представления чисел, количество битов машинного порядка определяет диапазон представления чисел с плавающей точкой.

4. Формализованное понятие алгоритма

Алгоритм может существовать только тогда, когда в то же самое время существует некоторый математический объект. Формализованное понятие алгоритма связано с понятием рекурсивных функций, нормальных алгоритмов Маркова, машин Тьюринга.

В математике функция называется однозначной, если для любого набора аргументов существует закон, по которому определяется единственное значение функции. В качестве такого закона может выступать алгоритм; в этом случае функция называется вычислимой.

Рекурсивные функции — это подкласс вычислимых функций, а алгоритмы, определяющие вычисления, называются сопутствующими алгоритмами рекурсивных функций. Сначала фиксируются базовые рекурсивные функции, для которых сопутствующий алгоритм тривиален, однозначен; затем вводятся три правила — операторы подстановки, рекурсии и минимизации, при помощи которых на основе базовых функций получаются более сложные рекурсивные функции.

Базовыми функциями и их сопутствующими алгоритмами могут выступать:

1) функция n независимых переменных, тождественно равная нулю. Тогда, если знаком функции является φn, то независимо от количества аргументов значение функции следует положить равным нулю;

2) тождественная функция n независимых переменных вида ψni. Тогда, если знаком функции является ψni, то значением функции следует взять значение i-го аргумента, считая слева направо;

3) Λ — функция одного независимого аргумента. Тогда, если знаком функции является λ, то значением функции следует взять значение, следующее за значением аргумента. Разные ученые предлагали свои подходы к формализованному

представлению алгоритма. Например, американский ученый Черч предположил, что класс вычислимых функций исчерпывается рекурсивными функциями и, как следствие, каким бы ни был алгоритм, перерабатывающий один набор целых неотрицательных чисел в другой, найдется алгоритм, сопутствующий рекурсивной функции, эквивалентный данному. Следовательно, если для решения некоторой поставленной задачи нельзя построить рекурсивную функцию, то и не существует алгоритма для ее решения. Другой ученый, Тьюринг, разработал виртуальную ЭВМ, которая перерабатывала входную последовательность символов в выходную. В связи с этим им был выдвинут тезис, что любая вычислимая функция вычислима по Тьюрингу.

Читайте также: