О чем гласит закон аддитивности кратко

Обновлено: 02.07.2024

В аддитивный принцип Это метод подсчета вероятностей, который позволяет измерить, сколько способов может быть выполнено действие, которое, в свою очередь, имеет несколько альтернатив, из которых можно выбрать только один за раз. Классическим примером этого является случай, когда вы хотите выбрать транспортную линию, по которой можно добраться из одного места в другое.

В этом примере альтернативы будут соответствовать всем возможным транспортным линиям, которые охватывают желаемый маршрут, будь то воздушный, морской или наземный. Мы не можем добраться до места одновременно двумя видами транспорта; нам нужно выбрать только один.

Аддитивный принцип говорит нам, что количество способов, которыми мы должны совершить эту поездку, будет соответствовать сумме всех возможных альтернатив (транспортных средств), которые существуют, чтобы добраться до желаемого места, это будет включать даже средства транспорта, которые делают остановку где-нибудь. (или места) между ними.

Очевидно, что в предыдущем примере мы всегда будем выбирать наиболее удобную альтернативу, которая наилучшим образом соответствует нашим возможностям, но с точки зрения вероятности очень важно знать, сколькими способами можно провести мероприятие.

Вероятность

В общем, вероятность - это область математики, которая отвечает за изучение событий или явлений и случайных экспериментов.

Эксперимент или случайное явление - это действие, которое не всегда приводит к одинаковым результатам, даже если оно выполняется с одинаковыми начальными условиями, без каких-либо изменений в начальной процедуре.

Вероятность отвечает за предоставление методов для определения того, как часто может происходить данное случайное событие; Среди других намерений, главное - предсказать возможные будущие события, которые являются неопределенными.

Вероятность события

В частности, вероятность того, что событие A произойдет, является действительным числом от нуля до единицы; то есть число, принадлежащее интервалу [0,1]. Обозначается P (A).

Если P (A) = 1, то вероятность возникновения события A составляет 100%, а если она равна нулю, вероятность его возникновения отсутствует. Пространство выборки - это набор всех возможных результатов, которые могут быть получены путем проведения случайного эксперимента.

Существует как минимум четыре типа или концепции вероятности в зависимости от случая: классическая вероятность, частотная вероятность, субъективная вероятность и аксиоматическая вероятность. Каждый фокусируется на разных случаях.

Классическая вероятность охватывает случай, когда пространство выборки имеет конечное число элементов.

В этом случае вероятность возникновения события A будет равна количеству доступных альтернатив для получения желаемого результата (то есть количеству элементов в наборе A), деленному на количество элементов в пространстве выборки.

Здесь мы должны учитывать, что все элементы выборочного пространства должны быть равновероятными (например, как данное, которое не изменяется, в котором вероятность получения любого из шести чисел одинакова).

Например, какова вероятность того, что бросок кубика даст нечетное число? В этом случае набор A будет состоять из всех нечетных чисел от 1 до 6, а пространство выборки будет состоять из всех чисел от 1 до 6. Итак, A имеет 3 элемента, а пространство выборки - 6. Итак Следовательно, P (A) = 3/6 = 1/2.

Что такое аддитивный принцип?

Как указывалось ранее, вероятность измеряет, как часто происходит определенное событие. Чтобы определить эту частоту, важно знать, какими способами можно проводить это мероприятие. Аддитивный принцип позволяет нам производить такой расчет в конкретном случае.

В общем, это утверждается для объединения конечного числа наборов (больше или равно 2).

Примеры

Первый пример

Если в книжном магазине продаются книги по литературе, биологии, медицине, архитектуре и химии, из которых 15 различных типов книг по литературе, 25 по биологии, 12 по медицине, 8 по архитектуре и 10 по химии, сколько вариантов есть у человека? выбрать книгу по архитектуре или книгу по биологии?

Аддитивный принцип говорит нам, что количество вариантов или способов сделать этот выбор равно 8 + 25 = 33.

Этот принцип также может применяться в том случае, если задействовано одно мероприятие, которое, в свою очередь, имеет различные альтернативы, которые необходимо выполнить.

Предположим, вы хотите выполнить определенное действие или событие A, и для этого есть несколько альтернатив, скажем n.

В свою очередь, первая альтернатива имеет1 способы выполнения, вторая альтернатива должна2 способы выполнения и т. д., альтернативный номер n может быть выполнен изп способами.

Аддитивный принцип гласит, что событие A может быть выполнено из1+ а2+… + Ап способами.

Второй пример

Предположим, человек хочет купить пару обуви. Когда он приходит в обувной магазин, он находит только две разные модели своего размера.

Доступны два цвета одного и пять доступных цветов другого. Сколько способов у этого человека сделать эту покупку? По аддитивному принципу ответ 2 + 5 = 7.

Аддитивный принцип следует использовать, когда вы хотите рассчитать способ выполнения одного или другого события, а не обоих одновременно.

Аддитивный принцип можно также интерпретировать с точки зрения вероятности следующим образом: вероятность того, что событие A или событие B произойдет, обозначается P (A∪B), зная, что A не может произойти одновременно с B, задается формулой P (A∪B) = P (A) + P (B).

Третий пример

Какова вероятность получить 5 при бросании кубика или орла при подбрасывании монеты?

Как видно выше, в целом вероятность получить любое число при броске кубика составляет 1/6.

В частности, вероятность получить 5 также составляет 1/6. Точно так же вероятность выпадения орла при подбрасывании монеты равна 1/2. Следовательно, ответ на предыдущий вопрос: P (A∪B) = 1/6 + 1/2 = 2/3.

Как уже упоминалось выше, в качестве основной единицы измерения информации мы будем использовать бит. Соответственно, с точки зрения алфавитного подхода мы будем кодировать информацию при помощи нулей и единиц (двоичных знаков). Определение.


1.2. Формула Хартли измерения количества информации. Закон аддитивности информации

Как уже упоминалось выше, в качестве основной единицы измерения информации мы будем использовать бит. Соответственно, с точки зрения алфавитного подхода мы будем кодировать информацию при помощи нулей и единиц (двоичных знаков).

Поставим себе одну из наиболее часто встречающихся задач в теории информации. Пусть у нас есть `N` возможных равновероятных вариантов исходов некоторого события. Какое количество информации нам нужно получить, чтобы оставить только один вариант?

Например, пусть мы знаем, что некоторая интересная для нас книга находится на одной из полок нашего книжного шкафа, в котором `8` полок. Какое количество информации нам нужно получить, чтобы однозначно узнать полку, на которой находится книга?

Решим эту задачу с точки зрения содержательного и алфавитного подходов. Поскольку изначально в шкафу было `8` полок, а в итоге мы выберем одну, следовательно, неопределённость знания о местоположении книги уменьшится в `8` раз. Мы говорили, что один бит – это количество информации, уменьшающее неопределённость знания в `2` раза. Следовательно, мы должны получить `3` бита информации.

Прежде чем продолжить рассмотрение поставленной общей задачи введём важное математическое определение.

Назовём логарифмом числа `N` по основанию `a` такое число `X`, что Обозначение:

На параметры логарифма налагаются некоторые ограничения. Число `N` обязательно должно быть строго больше `0`. Число `a` (основание логарифма) должно быть также строго больше нуля и при этом не равняться единице (ибо при возведении единицы в любую степень получается единица).

Теперь вернёмся к нашей задаче. Итак, какое же количество информации нам нужно получить, чтобы выбрать один исход из `N` равновероятных? Ответ на этот вопрос даёт формула Хартли: `H=log_aN`, где `N` – это количество исходов, а `H` – количество информации, которое нужно получить для однозначного выбора `1` исхода. Основание логарифма обозначает единицу измерения количества информации. То есть если мы будем измерять количество информации в битах, то логарифм нужно брать по основанию `2`, а если основной единицей измерения станет трит, то, соответственно, логарифм берётся по основанию `3`.

Рассмотрим несколько примеров применения формулы Хартли.

Имеется `27` монет, одна из которых фальшивая и легче всех остальных. Сколько потребуется взвешиваний на двухчашечных весах, чтобы однозначно найти фальшивую монету?

В этой задаче неудобно использовать бит в качестве основной единицы измерения информации. Двухчашечные весы могут принимать три положения: левая чаша перевесила, значит, фальшивая монета находится в правой; правая чаша перевесила, значит, монета находится в левой; или же весы оказались в равновесии, что означает отсутствие фальшивой монеты на весах. Таким образом, одно взвешивание может уменьшить неопределённость в три раза, следовательно, будем использовать в качестве основной единицы измерения количес-тва информации трит.

По формуле Хартли `H = log _3 27 = 3` трита. Таким образом, мы видим, что для того чтобы найти фальшивую монету среди остальных, нам потребуется три взвешивания.

Логарифмы обладают очень важным свойством: `log_a(X*Y)=log_aX+log_aY`.

Если переформулировать это свойство в терминах количества информации, то мы получим закон аддитивности информации: Коли-чество информации`H(x_1, x_2)`, необходимое для установления пары `(x_1, x_2)`, равно сумме количеств информации `H(x_1)` и `H(x_2)`, необходимых для независимого установления элементов `x_1` и `x_2`:

Если в результате вычислений по формуле Хартли получилось нецелое число, а в задаче требуется указать целое число бит, то результат следует округлить в большую сторону.

Вероятностный подход к измерения информации. Все события происходят с различной вероятностью, но зависимость между вероятностью событий и количеством информации, полученной при совершении того или иного события можно выразить формулой которую в 1948 году предложил Шеннон.

Качество информации является одним из важнейших параметров для потребителя информации. Оно определяется следующими характеристиками:

- репрезентативность – правильность отбора информации в целях адекватного отражения источника информации. Например, в целях большей репрезентативности данных о себе абитуриенты стремятся представить в приемную комиссию как можно больше свидетельств, дипломов, удостоверений и другой информации, подтверждающей их высокий уровень подготовки, что учитывается при зачислении в ВУЗ;

- достаточность (полнота) – минимальный, но достаточный состав данных для достижения целей, которые преследует потребитель информации. Эта характеристика похожа на репрезентативность, однако разница состоит в том, что в данном случае учитывается минимальный состав информации, который не мешает принятию решения. Например, абитуриент – золотой медалист может не представлять в приемную комиссию свой аттестат: диплом, подтверждающий получение золотой медали, свидетельствует о полном наборе отличных оценок в аттестате;

- доступность – простота (или возможность) выполнения процедур получения и преобразования информации. Эта характеристика применима не ко всей информации, а лишь к той, которая не является закрытой. Для обеспечения доступности бумажных документов используются различные средства оргтехники для их хранения, а для облегчения их обработки используются средства вычислительной техники;

- актуальность – зависит от динамики изменения характеристик информации и определяется сохранением ценности информации для пользователя в момент ее использования. Очевидно, что касается информации, которая используется при зачислении, она актуальна, так как само обучение уже закончилось, и его результаты изменены быть не могут, а, значит, остаются актуальными;

- своевременность – поступление не позже заранее назначенного срока. Этот параметр также очевиден недавним абитуриентам: опоздание с представлением позитивной информации о себе при поступлении может быть чревато незачислением;

- точность – степень близости информации к реальному состоянию источника информации. Например, неточной информацией является медицинская справка, в которой отсутствуют данные о перенесенных абитуриентом заболеваниях;

- достоверность – свойство информации отражать источник информации с необходимой точностью. Эта характеристика вторична относительно точности. В предыдущем примере получаемая информация недостоверна;

- устойчивость – способность информации реагировать на изменения исходных данных без нарушения необходимой точности.


  1. Какие подходы к измерению информации существуют?

  2. Определите содержательный подход к измерению информации.

  3. Какой подход измерения информации называется алфавитным?

  4. Дайте определение вероятностному подходу.

  5. Какими характеристиками определяется информация?

Тема: Понятие количества информации. Единицы измерения информации.

1. Измерение информации в быту (информация как новизна).

2. Измерение информации в технике (информация – любая хранящаяся, обрабатываемая или передаваемая последовательность знаков).

Б) В вычислительной технике (ВТ) применяют две стандартные единицы измерения:

Если вернуться к опыту с бросанием монеты, то здесь неопределенность как раз уменьшается в два раза и, следовательно, полученное количество информации равно 1 биту.

Минимальной единицей измерения количества информации является бит, а следующей по величине единицей является байт, причем 1 байт = 23 бит = 8 бит.

В информатике система образования кратных единиц измерения количества информации несколько отличается от принятых в большинстве наук. Традиционные метрические системы единиц, например Международная система единиц СИ, в качестве множителей кратных единиц используют коэффициент 10n, где n = 3, 6, 9 и так далее, что соответствует десятичным приставкам Кило (103), Мега (106), Гига (109) и так далее.

Компьютер оперирует числами не в десятичной, а в двоичной системе счисления, поэтому в кратных единицах измерения количества информации используется коэффициент 2n.

Так, кратные байту единицы измерения количества информации вводятся следующим образом:

1 Кбайт = 210 байт = 1024 байт;

1 Мбайт = 210 Кбайт = 1024 Кбайт;

1 Гбайт = 210 Мбайт = 1024 Мбайт.

Количество возможных событий и количество информации. Существует формула, которая связывает между собой количество возможных событий N и количество информации I: N=2I.

По этой формуле можно легко определить количество возможных событий, если известно количество информации. Например, если мы получили 4 бита информации, то количество возможных событий составляло: N = 24= 16.

Так как 64 = 26, то получим: 26 = 2I.

Таким образом, I = 6 битов, то есть количество информации, полученное вторым игроком после первого хода первого игрока, составляет 6 битов.


  1. Что называется измерением информации?

  2. Какие способы определения количества информации существуют?

  3. Дайте определение количества информации.

  4. какие единицы измерения информации существуют?

Тема: Формула Хартли при определении количества информации.

Иногда формулу Хартли записывают так:

I = log2K = log2 (1 / р) = - log2 р,

т. к. каждое из К событий имеет равновероятный исход р = 1 / К, то К = 1 / р.

Но не все ситуации имеют одинаковые вероятности реализации. Существует много таких ситуаций, у которых вероятности реализации различаются. Например, если бросают несимметричную монету или "правило бутерброда".

"Однажды в детстве я уронил бутерброд. Глядя, как я виновато вытираю масляное пятно, оставшееся на полу, старший брат успокоил меня:

- не горюй, это сработал закон бутерброда.

- Что еще за закон такой? - спросил я.

- Закон, который гласит: "Бутерброд всегда падает маслом вниз". Впрочем, это шутка, - продолжал брат.- Никакого закона нет. Прсто бутерброд действительно ведет себя довольно странно: большей частью масло оказывается внизу.

- Давай-ка еще пару раз уроним бутерброд, проверим, - предложил я. - Все равно ведь его придется выкидывать.

Проверили. Из десяти раз восемь бутерброд упал маслом вниз.

И тут я задумался: а можно ли заранее узнать, как сейчас упадет бутерброд маслом вниз или вверх?

Наши опыты прервала мать…"

( Отрывок из книги "Секрет великих полководцев", В.Абчук).

В 1948 г. американский инженер и математик К Шеннон предложил формулу для вычисления количества информации для событий с различными вероятностями.

Если I - количество информации,

К - количество возможных событий,

рi - вероятности отдельных событий,

то количество информации для событий с различными вероятностями можно определить по формуле:

I = - Sum рi log2 рi,

где i принимает значения от 1 до К.

Формулу Хартли теперь можно рассматривать как частный случай формулы Шеннона:

I = - Sum 1 / К log2 (1 / К) = I = log2 К.

При равновероятных событиях получаемое количество информации максимально.

1. Определить количество информации, получаемое при реализации одного из событий, если бросают

б) симметричную и однородную четырехгранную пирамидку.

а) Будем бросать несимметричную четырехгранную пирамидку.

Вероятность отдельных событий будет такова:

тогда количество информации, получаемой после реализации одного из этих событий, рассчитывается по формуле:

I = -(1 / 2 log2 1/2 + 1 / 4 log2 1/4 + 1 / 8 log2 1/8 + 1 / 8 log2 1/8) = 1 / 2 + 2 / 4 + + 3 / 8 + 3 / 8 = 14/8 = 1,75 (бит).

б) Теперь рассчитаем количество информации, которое получится при бросании симметричной и однородной четырехгранной пирамидки:

I = log2 4 = 2 (бит).

2. Вероятность перового события составляет 0,5, а второго и третьего 0,25. Какое количество информации мы получим после реализации одного из них?

3. Какое количество информации будет получено при игре в рулетку с 32-мя секторами?

4. Сколько различных чисел можно закодировать с помощью 8 бит?

Решение: I=8 бит, K=2I=28=256 различных чисел.

При передаче и хранении информации с помощью различных технических устройств информацию следует рассматривать как последовательность знаков (цифр, букв, кодов цветов точек изображения), не рассматривая ее содержание.

Молекулы ДНК (дезоксирибонуклеиновой кислоты) состоят из четырех различных составляющих (нуклеотидов), которые образуют генетический алфавит. Информационная емкость знака этого алфавита составляет:

4 = 2I, т.е. I = 2 бит.

Каждая буква русского алфавита (если считать, что е=е) несет информацию 5 бит (32 = 2I).


  1. Как выглядит формула Хартли?

  2. Как выглядит формула Шеннона?

  3. В чем разница между вышеперечисленными формулами?

Тема: Закон аддитивности информации и его назначение.

Благодаря Клоду Шеннону и другим основоположникам теории передачи информации научились измерять ее количественно, так же, как давно умеем измерять массу и энергию. Еще в 1748 г. трудами М. В. Ломоносова установлены законы сохранения вещества и движения:

Позднее был сформулирован и закон сохранения энергии, гласящий, что энергия любой замкнутой системы при всех происходящих в ней процессах остается постоянной. Энергия может только превращаться из одной формы в другую и перераспределяться между частями системы.

Для незамкнутых систем увеличение или уменьшение энергии равно принятой или переданной энергии другим системам. В современной физике насчитывают довольно много законов сохранения (массы, импульса, момента импульса, энергии, заряда и т. д.). Все они относятся к замкнутым системам (не взаимодействующим с их окружением).

Давайте же, пользуясь методом аналогий, распространим законы сохранения и на информационный план бытия, сформулировав, как гипотезу, закон сохранения информации: в замкнутой системе количество информации остается неизменным.

Правомочность гипотезы в науке принято проверять приложением ее к практике. Дело это нескорое и непростое, но некоторые примеры, как кажется, хорошо иллюстрируют сформулированный закон. Обратимся к близкому и родному — линии передачи информации (см. рисунок).

Односторонний обмен, в частности, "работа только на прием", иногда тоже не спасает. Пример: за годы "железного занавеса" отечественная радиоэлектроника почти безнадежно отстала от мировой, хотя "работа на прием" шла во всю и "цельнотянутые" серии радиоламп, транзисторов и микросхем выпускаются до сих пор. Американцы не единожды, и даже в конгрессе поднимали вопрос, не наносит ли ущерб стране открытость публикаций в технических журналах и иных изданиях? Теперь, когда гонка технологий ими выиграна, ответ получен. Ущерба и не должно быть, ведь отдавая информацию, ее не теряешь. Конечно, есть и другие немаловажные причины нашего отставания. Не затрагивая общественно-политических, упомянем лишь закрытость, связанную с чрезмерной секретностью.

Не убывание информации при ее передаче широко используют в библиотеках, банках данных, справочниках. Вопрос хранения — особый. Можно ли утерять информацию? Для мелких подсистем — да. Люди забывают, библиотечные фонды списывают и уничтожают, магнитные ленты и диски стирают. Но стоит раздвинуть границы системы шире (см. рисунок), как мы видим, что в расширенной системе информация сохраняется. Забытый телефон можно переспросить, утерянные сведения — восстановить по первоисточникам и т. д. Широкий обмен способствует сохранению информации ("слово не воробей, поймают, и вылетишь!").

Здесь надо бы различить, перефразируя Иммануила Канта ("вещь в себе" и "вещь для нас"), понятия информации вообще, и информации, осмысленной нами. Последняя и приобретается и теряется, первая — нет. "Рукописи не горят". Разве законы тяготения не существовали задолго до Ньютона? И разве любое падающее яблоко не несло информацию о них? Просто Исаак Ньютон осмыслил их и представил в сжатой и понятной научному миру форме. В этом и состоит открытие. Индусы говорят больше: "каждый встреченный тобой человек — твой Великий Учитель".

Теперь огромное значение приобрел Интернет, явление, чрезвычайно интересное с философской точки зрения. Суммарный объем выкладываемой информации неудержимо растет, а разработчики создают все более совершенные накопители информации, вмещающие этот объем! Это еще одно подтверждение закона сохранения информации (закона аддитивности).


  1. О чем гласит закон аддитивности?

  2. Кто первый заговорил об этом законе?

  3. Каково назначение закона?

Алфавит ный_подход_к_измерению_информации.'> Тема: Алфавитный подход к измерению информации.

I = i * К.

Эта величина является информационным объемом текста.

Необходимо так же знать единицы измерения информации и соотношения между ними.

Единицы измерения информации

Как уже было сказано, основная единица измерения информации — бит.

8 бит составляют 1 байт.
Наряду с байтами для измерения количества информации используются более крупные единицы:
1 Кбайт (один килобайт) = 210 байт = 1024 байта;
1 Мбайт (один мегабайт) = 210 Кбайт = 1024 Кбайт;
1 Гбайт (один гигабайт) = 210 Мбайт = 1024 Мбайт.
В последнее время в связи с увеличением объёмов обрабатываемой информации входят в употребление такие производные единицы, как:
1 Терабайт (Тб) = 1024 Гбайт = 240 байта,
1 Петабайт (Пб) = 1024 Тбайта = 250 байта.


  1. Как измеряется информация при содержательном подходе?

  2. Что такое алфавит?

  3. Что называется мощностью алфавита?

  4. Что называется объемом информации?

Тема: Данные и их кодирование. Принципы кодирования и декодирования.

1. Коды: прямой, обратный, дополнительный.


  • Положительные числа в прямом, обратном и дополнительном кодах изображаются одинаково – с цифрой 0 в знаковом разряде.

  • Отрицательные числа в прямом, обратном и дополнительном кодах имеют разное изображение.

  1. Прямой код. В знаковый ряд помещается цифра 1, а в разряды цифровой части числа – двоичный код его абсолютной величины.

ПРИМЕРЫ. Прямой код числа -1: Прямой код числа -127:


  1. Обратный код получается инвентированием всех цифр двоичного кода абсолютной величины числа, включая разряд знака: нули заменяют единицами, а единицы – нулями.

ПРИМЕРЫ. Число: -1. Число: -127.

Код модуля числа: 0 0000001. Код модуля числа: 0 1111111

Обратный код числа: 1 1111110. Обратный код числа: 1 0000000


1

1

1

1

1

1

1

0


  1. Дополнительный код получается образованием обратного кода с последующим прибавлением единицы к его младшему разряду.


1

1

1

1

1

1

1

1

Обычно отрицательные десятичные числа при вводе в машину автоматически преобразуются в обратный или дополнительный двоичный код и в таком виде хранятся, перемещаются и участвуют в операциях. При вводе таких чисел из машины происходит обратное преобразование в отрицательные десятичные числа.


  1. Какие формы кодирования информации вы знаете?

  2. Что происходит в прямом коде?

  3. Как получается обратный код?

  4. Как получается дополнительный код?

  5. Как кодируются положительные и отрицательные числа

Тема: Характеристика процесса передачи данных.

Режимы и коды передачи данных


  1. Структурная схема системы передачи информации.

Структурная схема одной из характерных информационных систем в общем случае может быть представлена как:

информации

Сигнал-помеха

Сигнал

Информация

Прием-ник

  • Аддитивность (лат. additivus — прибавляемый) — свойство величин, состоящее в том, что значение величины, соответствующее целому объекту, равно сумме значений величин, соответствующих его частям, в некотором классе возможных разбиений объекта на части. Например, аддитивность объёма означает, что объём целого тела равен сумме объёмов составляющих его частей.

Связанные понятия

Уравнение диффузии представляет собой частный вид дифференциального уравнения в частных производных. Бывает нестационарным и стационарным.

Парахор — комплексное физико-химическое свойство вещества, связывающее поверхностное натяжение жидкости с плотностью жидкости и пара.

Фазовые переходы второго рода — фазовые переходы, при которых вторые производные термодинамических потенциалов по давлению и температуре изменяются скачкообразно, тогда как их первые производные изменяются постепенно. Отсюда следует, в частности, что энергия и объём вещества при фазовом переходе второго рода не изменяются, но изменяются его теплоёмкость, сжимаемость, различные восприимчивости и т. д.

Радиационное трение, реакция излучения, лучистое трение, торможение излучением — сила, действующая на заряженную точечную частицу (например, электрон), со стороны её собственного электромагнитного излучения, вызываемого неравномерностью движения этой частицы.

Упоминания в литературе

Дельта. В принципе, дельта относится к инструментам риск-менеджмента. Однако для создания дельта-нейтральных позиций необходимо использовать этот показатель уже на начальном этапе формирования портфеля. Дельты опционов, относящихся к разным базовым активам, не обладают свойством аддитивности . Поэтому для портфеля, состоящего из опционов на разные базовые активы, невозможно рассчитать дельту портфеля методом простого суммирования дельт. В этом случае необходимо использовать индексную дельту. Этот показатель выражает меру чувствительности стоимости портфеля к небольшим колебаниям рыночного индекса. Другими словами, он позволяет определить, насколько упадет (или вырастет) стоимость портфеля, если значение индекса изменится на один пункт (или на 1 %). Концепция индексной дельты будет подробно описана в главе посвященной управлению рисками.

– если ?(αi) и ?(αj) оценки альтернатив αi и αj, то ?(αi) + ?(αj) соответствует совместному осуществлению альтернатив αi и αj. Наиболее сильным является последнее предположение об аддитивности оценок альтернатив.

Связанные понятия (продолжение)

Закон соответственных состояний гласит, что все вещества подчиняются одному уравнению состояния, если это уравнение выразить через приведённые переменные. Этот закон является приближённым и позволяет достаточно просто оценивать свойства плотного газа или жидкости с точностью порядка 10—15 %. Первоначально был сформулирован Ван дер Ваальсом в 1873 году.

Парадо́кс Ги́ббса — отсутствие непрерывности для энтропии при переходе от смешения различных газов к смешению тождественных газов, когда, например, при переходе от бесконечно мало отличающихся идеальных газов к тождественным расчётное значение энтропии смешения падает скачком до нуля, что представляется неожиданным и нелогичным.

Величина́ — математическое понятие, описывающее объекты, для которых может быть определено отношение неравенства и смысл операции сложения, а также выполняется ряд свойств, включая аксиомы Архимеда и непрерывности. Величина является одним из основных понятий математики.

Теорема о равнораспределении кинетической энергии по степеням свободы, закон равнораспределения, теорема о равнораспределении — связывает температуру системы с её средней энергией в классической статистической механике. В первоначальном виде теорема утверждала, что при тепловом равновесии энергия разделена одинаково между её различными формами, например, средняя кинетическая энергия поступательного движения молекулы должна равняться средней кинетической энергии её вращательного движения.

Пра́вило фаз (или правило фаз Гиббса) — соотношение, связывающее число компонентов, фаз и термодинамических степеней свободы в равновесной термодинамической системе. Роль правила фаз особенно велика при рассмотрении гетерогенных равновесий в многофазных многокомпонентных системах.

В статистической термодинамике энтропия Цаллиса — обобщение стандартной энтропии Больцмана—Гиббса, предложенное Константино Цаллисом (Constantino Tsallis) в 1988 г. для случая неэкстенсивных (неаддитивных) систем. Его гипотеза базируется на предположении, что сильное взаимодействие в термодинамически аномальной системе приводит к новым степеням свободы, к совершенно иной статистической физике небольцмановского типа.

Соотноше́ния Кра́мерса — Кро́нига — интегральная связь между действительной и мнимой частями любой комплексной функции, аналитичной в верхней полуплоскости. Часто используются в физике для описания связи действительной и мнимой частей функции отклика физической системы, поскольку аналитичность функции отклика подразумевает, что система удовлетворяет принципу причинности, и наоборот . В частности, соотношения Крамерса — Кронига выражают связь между действительной и мнимой частями диэлектрической проницаемости.

Множество больших тригонометрических сумм — понятие теории чисел — множество индексов, в которых преобразование Фурье характеристической функции заданного подмножества группы принимает достаточно большие значения.

Разме́рность физической величины — выражение, показывающее связь этой величины с основными величинами данной системы физических величин; записывается в виде произведения степеней сомножителей, соответствующих основным величинам, в котором численные коэффициенты опущены.

Уравне́ние состоя́ния — соотношение, отражающее для конкретного класса термодинамических систем связь между характеризующими её макроскопическими физическими величинами, такими как температура, давление, объём, химический потенциал, энтропия, внутренняя энергия, энтальпия и др. Уравнения состояния необходимы для получения с помощью математического аппарата термодинамики конкретных результатов, касающихся рассматриваемой системы. Эти уравнения не содержатся в постулатах термодинамики, так что для.

Корреляционная функция — функция времени и пространственных координат, которая задает корреляцию в системах со случайными процессами.

Атом Гука относится к искусственным атомам подобных атому гелия, в котором кулоновский электрон-ядерный потенциал взаимодействия.

Крива́я титрова́ния — графическое изображение зависимости определяемой в ходе титрования величины от объёма добавленного стандартного раствора титранта. Построение кривых проводится в инструментальных методах аналитической химии, где отсутствует возможность визуального определения точки эквивалентности (например, по индикатору).

Блочный Гамильтониан — гамильтониан, описывающий критическое поведение магнетика вблизи точки фазового перехода второго рода.

Метод спектрального элемента (МСЭ) для решения дифференциальных уравнений в частных производных — это метод конечных элементов, в котором используются кусочные многочлены высокой степени в качестве базисных функций. Метод спектрального элемента предложил в статье 1984 года Т. Патера.

Метод объёма жидкости (англ. Volume of fluid method, VOF) — численный метод для аппроксимации свободной поверхности. Он относится к классу Эйлеровых методов, которые характеризуются сеткой, которая является стационарной или движется согласно изменяющейся форме поверхности по определённому заданному закону. Метод представляет собой алгоритм, который позволяет программисту отслеживать форму и положение поверхности в целом, но не является автономным алгоритмом. Уравнения Навье — Стокса, описывающие.

Микроканонический ансамбль — статистический ансамбль макроскопической изолированной системы с постоянными значениями объёма V, числа частиц N и энергии E. Понятие микроканонического ансамбля является идеализацией, так как в действительности полностью изолированных систем не существует. В микроканоническом распределении Гиббса все микроскопические состояния, отвечающие данной энергии, равновероятны согласно эргодической гипотезе. Теорема Гиббса, доказанная автором, утверждает, что малую часть микроканонического.

Во многих случаях для предсказания поведения реального газа допустимо использовать модель идеального газа. При работе с данной моделью широко применяются термодинамические потенциалы, которые в данном частном случае приобретают более простой для расчётов вид.

Весовая функция — математическая конструкция, используемая при проведении суммирования, интегрирования или усреднения с целью придания некоторым элементам большего веса в результирующем значении по сравнению с другими элементами. Задача часто возникает в статистике и математическом анализе, тесно связана с теорией меры. Весовые функции могут быть использованы как для дискретных, так и для непрерывных величин.

Критерий подобия — безразмерная величина, составленная из размерных физических параметров, определяющих рассматриваемое физическое явление. Равенство всех однотипных критериев подобия для двух физических явлений и систем — необходимое и достаточное условие их физического подобия.

Метод ренормализационной группы (также часто называемый методом ренормгруппы, методом РГ) в квантовой теории поля — итеративный метод перенормировки, в котором переход от областей с меньшей энергией к областям с большей вызван изменением масштаба рассмотрения системы.

Главным образом, интерес к вопросу распространения волн в случайно-неоднородных средах (какой является, например, атмосфера) можно объяснить бурным развитием спутниковых технологий. В этом случае становится важной задача расчета характеристик (например, амплитуды) волны прошедшей через среду и установления их связей с параметром неоднородности среды. Важную роль здесь и играет функция Грина для случайно-неоднородной среды, зная которую можно определить эти характеристики. Рассматривается прохождение.

Физи́ческая величина́ — измеряемое качество, признак или свойство материального объекта или явления, общее в качественном отношении для класса материальных объектов или процессов, явлений, но в количественном отношении индивидуальное для каждого из них. Физические величины имеют род, размер, единицу(измерения) и значение.

Ядерная оценка плотности (ЯОП, англ. Kernel Density Estimation, KDE) — это непараметрический способ оценки плотности случайной величины. Ядерная оценка плотности является задачей сглаживания данных, когда делается заключение о совокупности, основываясь на конечных выборках данных. В некоторых областях, таких как обработка сигналов и математическая экономика, метод называется также методом окна Парзена-Розенблатта. Как считается, Эммануэль Парзен и Мюррей Розенблатт независимо создали метод в существующем.

Коэффицие́нт сопротивле́ния фо́рмы, КСФ (англ. drag coefficient) — безразмерная величина, определяющая реакцию среды на движение в ней тела (или тела на движение в нём среды).

Теоретическая тарелка (теоретическая ступень разделения) — теоретическая модель массообменных процессов в двухфазных средах, основанная на представлении массообменного устройства (тарелки) как теоретически идеальной, изолированной системы в состоянии термодинамического равновесия. Характеризует максимальную, теоретически возможную разницу концентраций компонентов в фазах при заданных условиях.

Потенциал Леннард-Джонса (потенциал 6-12) — простая модель парного взаимодействия неполярных молекул, описывающая зависимость энергии взаимодействия двух частиц от расстояния между ними. Эта модель достаточно реалистично передаёт свойства реального взаимодействия сферических неполярных молекул и поэтому широко используется в расчётах и при компьютерном моделировании. Впервые этот вид потенциала был предложен Леннард-Джонсом в 1924 году.

Уравнение ренормгруппы (уравнение Каллана — Симанчика) — дифференциальное уравнение для корреляционных функций (пропагаторов), показывающее их независимость от масштаба рассмотрения. Оно имеет место, например, при рассмотрении динамики системы вблизи критической точки.

Чётность — свойство физической величины сохранять свой знак (или изменять на противоположный) при некоторых дискретных преобразованиях. Она выражается числом, принимающим два значения: +1 и −1.

Гауссовский процесс назван так в честь Карла Фридриха Гаусса, поскольку в его основе лежит понятие гауссовского распределения (нормального распределения). Гауссовский процесс может рассматриваться как бесконечномерное обобщение многомерных нормальных распределений. Эти процессы применяются в статистическом моделировании; в частности используются свойства нормальности. Например, если случайный процесс моделируется как гауссовский, то распределения различных производных величин, такие как среднее значение.

Аддитивная энергия — численная характеристика подмножества группы, иллюстрирующая структурированность множества относительно групповой операции.

В статистике степенной закон (англ. power law) - это такая функциональная зависимость между двумя величинами, при которой относительное изменение одной величины приводит к пропорциональному относительному изменению другой величины, независимо от исходных значений этих величин: зависимость одной величины от другой представляет собой степенную функцию. Например, рассмотрим зависимость площади квадрата от длины его стороны. Если длина будет увеличена вдвое, то площадь увеличится вчетверо.

Оддеро́н (от англ. odd — нечётный) — реджеон, обладающий всеми квантовыми числами померона за исключением отрицательной C-чётности. Предполагается, что он должен проявляться в сильных взаимодействиях при высоких энергиях наравне с помероном. Указанием на это можно считать существование оддеронных решений уравнения типа БФКЛ (Балицкого — Фадина — Кураева — Липатова), причём получающийся интерсепт оддерона также высок и достигает единицы.

Обменное взаимодействие — взаимодействие тождественных частиц в квантовой механике, приводящее к зависимости значения энергии системы частиц от её полного спина. Представляет собой чисто квантовый эффект, исчезающий при предельном переходе к классической механике.

Магнитоста́тика — раздел классической электродинамики, изучающий взаимодействие постоянных токов посредством создаваемого ими постоянного магнитного поля и способы расчета магнитного поля в этом случае. Под случаем магнитостатики или приближением магнитостатики понимают выполнение этих условий (постоянства токов и полей — или достаточно медленное их изменение со временем), чтобы можно было пользоваться методами магнитостатики в качестве практически точных или хотя бы приближенных. Магнитостатика.

Высота, эквивалентная теоретической тарелке (ВЭТТ) (англ. height equivalent to a theoretical plate, HETP) — Удельная характеристика разделяющей способности насадочной ректификационной колонны. Такая колонна представляется эквивалентной теоретически идеальной тарельчатой колонной, работающей в стационарном режиме (неизменные во времени все параметры процесса) с количественно равными потоками фаз (с бесконечным флегмовым числом). Делится по высоте на участки, в которых изменение концентраций компонентов.

Функции Бриллюэна и Ланжевена представляют собой пару специальных функций , которые появляются при изучении идеализированного парамагнитного материала в статистической механике.

Электри́ческий ди́польный моме́нт — векторная физическая величина, характеризующая, наряду с суммарным зарядом (и реже используемыми высшими мультипольными моментами), электрические свойства системы заряженных частиц (распределения зарядов) в смысле создаваемого ею поля и действия на неё внешних полей. Главная после суммарного заряда и положения системы в целом (её радиус-вектора) характеристика конфигурации зарядов системы при наблюдении её издали.

Метод главных компонент (англ. principal component analysis, PCA) — один из основных способов уменьшить размерность данных, потеряв наименьшее количество информации. Изобретён Карлом Пирсоном в 1901 году. Применяется во многих областях, в том числе, в эконометрике, биоинформатике, обработке изображений, для сжатия данных, в общественных науках.

Читайте также: