Вторая теорема шеннона кратко

Обновлено: 07.07.2024

В теории информации , то вторая теорема Шеннона кодирование говорит показывает канал , что можно передавать цифровые данные на канале даже шумные почти без ошибок при максимальной ставке , рассчитанной. Этот результат, опубликованный Клодом Шенноном в 1948 году, основан на более ранней работе Гарри Найквиста и Ральфа Хартли . Первое строгое доказательство было установлено Амиэлем Файнштейном в 1954 году. Оно имеет фундаментальное значение в теории информации и имеет широкое применение в области телекоммуникаций и хранения информации .

Предел Шеннона или пропускная способность канала - это максимальная теоретическая скорость передачи информации по этому каналу для определенного уровня шума .

Резюме

Вступление

Теорема показывает, что для источников, скорость передачи которых ниже, чем определенная пропускная способность, связанная с каналом передачи, существуют такие коды, что при декодировании частота ошибок будет настолько низкой, насколько желательно.

Часто символы, испускаемые в течение фиксированной продолжительности, заменяют энтропию источника его скоростью в бит / с. То же самое и с пропускной способностью канала, который может быть потоком или взаимной информацией (откуда определенная путаница). Последнее определяется физическими характеристиками канала. Теорема Шеннона-Хартли дает, например, пропускную способность канала с ограниченной полосой пропускания, подверженного гауссовскому шуму (см. Отношение сигнал-шум ).

Следует отметить, что для того, чтобы сократить частоту ошибок , различные доказательства стремятся к бесконечности длины кодовых слов. Таким образом, если теорема позволяет находить такие коды, она не дает алгоритмов декодирования удовлетворительной алгоритмической сложности . Сегодня сверточные турбокоды или коды LDPC ( проверка на четность с низкой плотностью ) позволяют передавать сигналы, энтропия которых приближается к пропускной способности канала, оставаясь при этом декодируемыми в реальном времени.

Подробности

Дискретный источник излучает каждый символ заранее определенного алфавита с определенной частотой. Формально это моделируется категориальной случайной величиной . Мы называем кодированием источника любую случайную переменную , при которой условная энтропия равна нулю (без потерь или прироста информации). В s _ > S S E ЧАС ( S | E )

Имея источник и алфавит , мы называем каналом передачи любую функцию по набору кодировок и со значениями в наборе категориальных случайных величин по . S В d _ > ж E ( S ) > (S)> В d _ >

Пропускная способность канала определяется как: ж

Теорема

Предварительные обозначения

Расшифровка выполняется в смысле максимального правдоподобия, то есть слово определяется, если: Икс >>

состояния

Для постоянной скорости существует последовательность кодов, которая исключает вероятность ошибки. р ПРОТИВ

Доказательство блочного кода

Повышение вероятности ошибки для слова

Вероятность ошибки при вводе слова составляет: Икс >>

Но у нас есть увеличение: s > 0 0>

Вероятностный набор кодов

Предположим, что кодовые слова взяты из независимых розыгрышей в соответствии с законом , тогда: L >>

Однако кодовые слова рисуются независимо, следовательно:

И по линейности:

Это увеличение не зависит от того , существует ли код, вероятность ошибки которого увеличивается на эту же величину. Икс >>

Задача эффективного кодирования описывается триадой:

Х = 4i> - кодирующее устройство - В.

Выпишем эти значения в виде табл. 1.8. Имеем:

Nmin = H(x) / log2 = 2,85, Ku = (2,92 - 2,85) / 2,92 = 0,024,

Таблица 1.8 Пример к первой теореме Шеннона

N Рхi xi Код ni пi-Рi Рхi ∙ log Рхi
0,19 X1 0,38 -4,5522
0,16 X2 0,48 -4,2301
0.16 X3 0,48 -4,2301
0,15 X4 0,45 -4,1054
0,12 X5 0,36 -3,6706
0,11 X6 0,33 - 3,5028
0,09 X7 0,36 -3,1265
0,02 X8 0,08 -3,1288
Σ=1 Σ=2,92 Σ=2,85




Доказательство теоремы основывается на следующих рассуждениях. Первоначально последовательность Х = кодируется символами из В так, что достигается максимальная пропускная способность (канал не имеет помех). Затем в последовательность из В длины п вводится r символов и по каналу передается новая последовательность из п + r символов. Число возможных последовательностей длины и + т больше числа возможных последовательностей длины п. Множество всех последовательностей длины п + r может быть разбито на п подмножеств, каждому из которых сопоставлена одна из последовательностей длины п. При наличии помехи на последовательность из п + r выводит ее из соответствующего подмножества с вероятностью сколь угодно малой.

Это позволяет определять на приемной стороне канала, какому подмножеству принадлежит искаженная помехами принятая последовательность длины п + r, и тем самым восстановить исходную последовательность длины п.

Эта теорема не дает конкретного метода построения кода, но указывает на пределы достижимого в создании помехоустойчивых кодов, стимулирует поиск новых путей решения этой проблемы.

Задача эффективного кодирования описывается триадой:

Х = 4i> - кодирующее устройство - В.

Выпишем эти значения в виде табл. 1.8. Имеем:

Nmin = H(x) / log2 = 2,85, Ku = (2,92 - 2,85) / 2,92 = 0,024,

Таблица 1.8 Пример к первой теореме Шеннона

N Рхi xi Код ni пi-Рi Рхi ∙ log Рхi
0,19 X1 0,38 -4,5522
0,16 X2 0,48 -4,2301
0.16 X3 0,48 -4,2301
0,15 X4 0,45 -4,1054
0,12 X5 0,36 -3,6706
0,11 X6 0,33 - 3,5028
0,09 X7 0,36 -3,1265
0,02 X8 0,08 -3,1288
Σ=1 Σ=2,92 Σ=2,85

Доказательство теоремы основывается на следующих рассуждениях. Первоначально последовательность Х = кодируется символами из В так, что достигается максимальная пропускная способность (канал не имеет помех). Затем в последовательность из В длины п вводится r символов и по каналу передается новая последовательность из п + r символов. Число возможных последовательностей длины и + т больше числа возможных последовательностей длины п. Множество всех последовательностей длины п + r может быть разбито на п подмножеств, каждому из которых сопоставлена одна из последовательностей длины п. При наличии помехи на последовательность из п + r выводит ее из соответствующего подмножества с вероятностью сколь угодно малой.

Это позволяет определять на приемной стороне канала, какому подмножеству принадлежит искаженная помехами принятая последовательность длины п + r, и тем самым восстановить исходную последовательность длины п.

Эта теорема не дает конкретного метода построения кода, но указывает на пределы достижимого в создании помехоустойчивых кодов, стимулирует поиск новых путей решения этой проблемы.

При работе с кодированной информацией, искажаемой помехами, можно выделить следующие основные проблемы: установления самого факта того, что произошло искажение информации; выяснения того, в каком конкретно месте передаваемого текста это произошло; исправления ошибки – хотя бы с некоторой степенью достоверности.

Например, каждый фрагмент текста ("предложение") передается трижды, и верным считается та пара фрагментов, которая полностью совпала. Однако, большая избыточность приводит к большим временным затратам при передаче информации и требует большого объема памяти при ее хранении. Отсюда следует задача устранения избыточности, или эффективного кодирования. Впервые теоретическое исследование такого рода проблем предпринял К.Шеннон.

Первая теорема Шеннона о передаче информации, которая называется также основной теоремой о кодировании при отсутствии помех, формулируется следующим образом:[5]

Используя понятие избыточности кода, можно дать более короткую формулировку теоремы:

Данные утверждения являются теоремами и, следовательно, должны доказываться, однако доказательства мы опустим. Для нас важно, что теорема открывает принципиальную возможность оптимального кодирования. Однако необходимо сознавать, что из самой теоремы никоим образом не следует, как такое кодирование осуществить практически – для этого должны привлекаться какие-то дополнительные соображения, что и станет предметом последующего обсуждения.

Таким образом, оптимальное кодирование принципиально возможно.

Наиболее важна для практики ситуация, когда М=2, то есть информацию кодируют лишь двумя сигналами 0 и 1. [1]

К min (А, В)= I ( A ) / log 2 M= I ( A ) ,

здесь I (A) - средняя информация на знак первичного алфавита.

Ограничим себя ситуацией, когда M = 2, т.е. для представления кодов в линии связи используется лишь два типа сигналов – наиболее просто реализуемый вариант. Подобное кодирование называется двоичным. Знаки двоичного алфавита принято обозначать "0" и "1. Удобство двоичных кодов и в том, что каждый элементарный сигнал (0 или 1) несет в себе 1 бит информации (log 2 M = 1); тогда из (1), теоремы Шеннона:

и первая теорема Шеннона получает следующую интерпретацию:

При отсутствии помех передачи средняя длина двоичного кода может быть сколь угодно близкой к средней информации, приходящейся на знак первичного алфавита.

Определение количества переданной информации при двоичном кодировании сводится к простому подсчету числа импульсов (единиц) и пауз (нулей). При этом возникает проблема выделения из потока сигналов (последовательности импульсов и пауз) отдельных кодов. Приемное устройство фиксирует интенсивность и длительность сигналов. Элементарные сигналы (0 и 1) могут иметь одинаковые или разные длительности. Их количество в коде (длина кодовой цепочки), который ставится в соответствие знаку первичного алфавита, также может быть одинаковым (в этом случае код называется равномерным) или разным (неравномерный код). Наконец, коды могут строиться для каждого знака исходного алфавита (алфавитное кодирование) или для их комбинаций (кодирование блоков, слов). В результате при кодировании (алфавитном и словесном) возможны следующие варианты сочетаний:

Первая теорема Шеннона о передаче информации, которая называется также основной теоремой о кодировании при отсутствии помех, формулируется следующим образом:

Алгебра логики. Таблица истинности основных логических операций (И ИЛИ НЕ ИНЕ ИЛИНЕ)

Алгебра логики (алгебра высказываний) — раздел математической логики, в котором изучаются логические операции над высказываниями.Чаще всего предполагается что высказывания могут быть только истинными или ложными. Базовыми элементами, которыми оперирует алгебра логики, являются высказывания.

Логическое сложение или дизъюнкция: Дизъюнкция - это сложное логическое выражение, которое истинно, если хотя бы одно из простых логических выражений истинно и ложно тогда и только тогда, когда оба простых логических выраженныя ложны.

Обозначение: F = A + B.

Логическое умножение или конъюнкция: Конъюнкция - это сложное логическое выражение, которое считается истинным в том и только том случае, когда оба простых выражения являются истинными, во всех остальных случаях данное сложеное выражение ложно.

Обозначение: F = A & B.

Логическое отрицание или инверсия: Инверсия - это сложное логическое выражение, если исходное логическое выражение истинно, то результат отрицания будет ложным, и наоборот, если исходное логическое выражение ложно, то результат отрицания будет истинным. Другими простыми слова, данная операция означает, что к исходному логическому выражению добавляется частица НЕ или слова НЕВЕРНО, ЧТО.

Логическое следование или импликация:Импликация - это сложное логическое выражение, которое истинно во всех случаях, кроме как из истины следует ложь. Тоесть данная логическая операция связывает два простых логических выражения, из которых первое является условием (А), а второе (В) является следствием.

Логическая равнозначность или эквивалентность:Эквивалентность - это сложное логическое выражение, которое является истинным тогда и только тогда, когда оба простых логических выражения имеют одинаковую истинность.

Порядок выполнения логических операций в сложном логическом выражении.

Нечеткая логика

раздел математики, являющийся обобщением классической логики и теории множеств. Понятие нечёткой логики было впервые введено профессором Лютфи Заде в 1965 году. В его статье понятие множества было расширено допущением, что функция принадлежности элемента к множеству может принимать любые значения в интервале [0. 1], а не только 0 или 1. Такие множества были названы нечёткими. Также автором были предложены различные логические операции над нечёткими множествами и предложено понятие лингвистической переменной, в качестве значений которой выступают нечёткие множества.

Предметом нечёткой логики является построение моделей приближенных рассуждений человека и использование их в компьютерных системах. В настоящее время существует по крайней мере два основных направления научных исследований в области нечёткой логики:

-нечёткая логика в широком смысле (теория приближенных вычислений);

-нечёткая логика в узком смысле (символическая нечёткая логика).

Причины вирусной опасности. Рост числа опасностей в сфере информационных

Технологий. Примеры ущерба наносимого информационными технологиями. Кража электронной личности.

По мере развития и модернизации компьютерных систем и программного обеспечения возрастает объем и повышается уязвимость хранящихся в них данных. Одним из новых причин, резко повысивших эту уязвимость, является массовое производство программно-совместимых мощных персональных ЭВМ, которое явилось одной из причин появления нового класса программ-вандалов - компьютерных вирусов. Наибольшая опасность, возникающая в связи с опасностью заражения программного обеспечения компьютерными вирусами, состоит в возможности искажения или уничтожения жизненно-важной информации, которое может привести к финансовым и временным потерям.

Растет количество атак, они становятся все изощреннее. Преступления в сфере информационных технологий включают как распространение вредоносных вирусов, взлом паролей, кражу номеров кредитных карточек и других банковских реквизитов (фишинг), так и распространение противоправной информации (клеветы, материалов порнографического характера, материалов, возбуждающих межнациональную и межрелигиозную вражду и т.п.) через Интернет, коммунальные объекты.

Ущерб, наносимый, например, спамом:

1. Трафик. Трафик входящей почты обычно оплачивает получатель спамерских писем. Это особенно актуально в случае подключения к Интернету по телефонной линии. Но и для компаний, оплачивающих трафик при соединении по выделенной линии, финансовый ущерб из-за большого объема пересылаемой почты и соответственно большого объема спама может оказаться очень существенным.

2. Потери рабочего времени. Средний офисный работник тратит на просмотр и удаление спама от 10 до 20 минут рабочего времени в день. Умножив это время на количество сотрудников в крупной компании, можно получить весьма ощутимые цифры.

3. Дыра в системе безопасности. Однако ущерб от спама определяется не только затратами рабочего времени и оплатой лишнего трафика. Спамерские письма систематически становятся переносчиками вредоносных программ, поскольку довольно часто рассылаются с приложениями в виде программ, документов Word или Excel, в которых могут содержаться вирусы.

Кража личности - Жертвами такого рода воровства сейчас становятся примерно 10 млн. американцев в год. В Штатах на сегодня это наиболее активно развивающийся вид преступности. Суммарно жертвы аферистов потеряли $265 млн. Недавно консультант минфина США заявил, что киберпреступность стала более прибыльным занятием, чем наркоторговля. Полицейские службы просто не поспевают за развитием событий. Общее количество зафиксированных компьютерных преступлений так велико, что его просто трудно осознать.

- Не захламляйте собственный компьютер. Содержите в порядке и вовремя обновляйте антивирусные и антишпионские программы, проводите регулярную чистку компьютера.

- Поставьте заслон. Убедитесь, что задействован встроенный межсетевой экран Windows. Еще лучше обзавестись специализированным межсетевым .

- Сначала думайте, а уж потом жмите на клавиши. Многие приходящие по почте вирусы и черви самоустанавливаются в вашем компьютере после одного-единственного нажатия на клавишу.

- Действуйте без промедления. Если у вас украли идентификационную информацию, сразу бейте тревогу. Позвоните в банк, который отвечает за ваши кредитные карты.

Поколения ЭВМ.

1-ое поколение: 1946 г. создание машины ЭНИАК на электронных лампах.

2-ое поколение: 60-е годы. ЭВМ построены на транзисторах.

3-ье поколение: 70-е годы. ЭВМ построены на интегральных микросхемах (ИС).

4-ое поколение: Начало создаваться с 1971 г. с изобретением микропроцессора (МП). Построены на основе больших интегральных схем (БИС) и сверх БИС (СБИС).

ЭВМ первого поколения были ламповыми машинами 50-х годов. Их элементной базой были электровакуумные лампы. Эти ЭВМ были весьма громоздкими сооружениями, содержавшими в себе тысячи ламп, занимавшими иногда сотни квадратных метров территории, потреблявшими электроэнергию в сотни киловатт.

Например, одна из первых ЭВМ – ENIAC – представляла собой огромный по объему агрегат длиной более 30 метров, содержала 18 тысяч электровакуумных ламп и потребляла около 150 киловатт электроэнергии.

Для ввода программ и данных применялись перфоленты и перфокарты. Не было монитора, клавиатуры и мышки. Использовались эти машины, главным образом, для инженерных и научных расчетов, не связанных с переработкой больших объемов данных. В 1949 году в США был создан первый полупроводниковый прибор, заменяющий электронную лампу. Он получил название транзистор.

ЭВМ второго поколения. В 60-х годах транзисторы стали элементной базой для ЭВМ второго поколения. Машины стали компактнее, надежнее, менее энергоемкими. Возросло быстродействие и объем внутренней памяти. Большое развитие получили устройства внешней (магнитной) памяти: магнитные барабаны, накопители на магнитных лентах.

В этот период стали развиваться языки программирования высокого уровня: ФОРТРАН, АЛГОЛ, КОБОЛ. Составление программы перестало зависеть от конкретной модели машины, сделалось проще, понятнее, доступнее.

В 1959 г. был изобретен метод, позволивший создавать на одной пластине и транзисторы, и все необходимые соединения между ними. Полученные таким образом схемы стали называться интегральными схемами или чипами. Изобретение интегральных схем послужило основой для дальнейшей миниатюризации компьютеров.

В дальнейшем количество транзисторов, которое удавалось разместить на единицу площади интегральной схемы, увеличивалось приблизительно вдвое каждый год.

Третье поколение ЭВМ создавалось на новой элементной базе – интегральных схемах (ИС).

ЭВМ третьего поколения начали производиться во второй половине 60-х годов, когда американская фирма IBM приступила к выпуску системы машин IBM-360. Немного позднее появились машины серии IBM-370.

В Советском Союзе в 70-х годах начался выпуск машин серии ЕС ЭВМ. Скорость работы наиболее мощных моделей ЭВМ достигла уже нескольких миллионов операций в секунду. На машинах третьего поколения появился новый тип внешних запоминающих устройств – магнитные диски . Успехи в развитии электроники привели к созданию больших интегральных схем (БИС), где в одном кристалле размещалось несколько десятков тысяч электрических элементов.

ЭВМ пятого поколения будут основаны на принципиально новой элементной базе. Основным их качеством должен быть высокий интеллектуальный уровень, в частности, распознавание речи, образов. Это требует перехода от традиционной фон-неймановской архитектуры компьютера к архитектурам, учитывающим требования задач создания искусственного интеллекта.

Читайте также: