Стохастическая независимость и зависимость событий реферат

Обновлено: 05.07.2024

Стохастические
Содержание:
Глава 1: Теоретическое изучение взаимосвязей
1.1. Сущность корреляционной связи
1.2. Примеры стохастических зависимостей в экономике, их особенности и теоретико-вероятностные способы их изучения
Глава 2: Практическое изучение взаимосвязей
2.1 Статистические методы выявления наличия корреляционной связи между признаками
2.2. Измерение степени теснотыкорреляционной связи между двумя признаками
2.3Уравнение регрессии и способы его расчета
Заключение
Список использованной литературы

Введение:
Важнейшим этапом в изучении связей является выяснение их социально- экономической сущности.
Качественный или корреляционный анализ представляет собой совокупность понятий, категорий и методов с помощью которых раскрывается качественная определенностьявлений и связей, их сходства и различия.
Для проведения более углубленного анализа связей между явлениями и процессами необходимо установить характер и тесноту этой связи.
Необходимо выделить прежде всего две категории зависимостей:
Функциональная характеризуется полным соответствием между изменением причины и изменением результативной величины и соответствием каждому значению признака -фактора определенного результативного признака.
Корреляционная (стохастическая) связь - это неполная, вероятностная зависимость между показателями, которая проявляется только в массе наблюдений.
В корреляционных связях между изменением факторного и результативного признаков нет полного соответствия и влияние отдельных факторов проявляется лишь в среднем при массовом наблюдении факторов, посколькукаждому значению факторного признака может соответствовать распределение значений результативного признака. Одновременное воздействие на изучаемый признак большого количества самых разнообразных факторов приводит к тому, что одному и тому же значению признака фактора будет соответствовать целое распределение значений результативного признака, поскольку в каждом конкретном случае прочие факторные признаки могутизменять силу и направление своего воздействия.
Наиболее широкое применение в экономических исследованиях нашли приемы корреляционного анализа, которые позволяют количественно выразить взаимосвязь между показателями.
Исследование корреляционных соотношений имеет огромное значение в АХД. Это проявляется в том, что значительно углубляется факторный анализ, устанавливаются место и роль каждогофактора в формировании уровня исследуемых показателей, углубляются знания об изучаемых явлениях, определяются закономерности их развития и как итог - точнее обосновываются планы и управленческие решения, более объективно оцениваются итоги деятельности предприятий и более полно определяются внутрихозяйственные резервы.
Необходимые условия применения корреляционного анализа:
Наличие достаточнобольшого количества наблюдений о величине исследуемых факторных и результативных показателей (в динамике или за текущий год по совокупности однородных объектов).
Исследуемые факторы должны иметь количественное измерение и отражение в тех или иных источниках информации.
Применение корреляционного анализа позволяет решить следующие задачи:
определить изменение результативного показателя под воздействиемодного или нескольких факторов (в абсолютном измерении), то есть определить, на сколько единиц изменяется величина результативного показателя при изменении факторного на единицу;
установить относительную степень зависимости результативного показателя от каждого фактора.
Предмет изучения: стохастические (корреляционные) взаимосвязи между явлениями.

Цель анализа :
Изучить корреляционные взаимосвязи стеоретической и практической точек зрения, а именно:
1)Изучить сущность корреляционных взаимосвязей;
2)Примеры взаимосвязей в экономике, а также способы их изучения;
3)Более подробно рассмотреть статистический метод изучения взаимосвязей;
4) Рассмотреть измерение степени тесноты корреляционной связи между двумя признаками;
5)Изучить уравнение регрессии и.

Стохастическая независимость событий является фундаментальным вероятностной концепцией , которая формализует понятие случайных событий , которые не влияют друг на друга : Два события называются стохастически независимыми , если вероятность того, что одно событие произойдет не изменится , потому что другое событие происходит не происходит.

Оглавление

Стохастическая независимость двух событий

определение

События и называются (стохастически) независимыми , если А. Б.

п ( А. ∩ Б. ) знак равно п ( А. ) ⋅ п ( Б. )

применяется. Следовательно, два события являются (стохастически) независимыми, если вероятность того, что оба события произойдут, равна произведению их индивидуальных вероятностей.

пример

Рассмотрим для примера два вытаскивания из урны с четырьмя шарами, два из которых черные и два красные.

Сначала нарисован с заменой . Глядя на события

Итак, два события независимы.

С другой стороны, если вы переместитесь без замены, новые вероятности для тех же событий будут и . Это тоже . Следовательно, события не являются стохастически независимыми. Это проясняет, что стохастическая независимость - это свойство не только событий, но и используемых вероятностных мер . п ′ ( А. ) знак равно 1 2 >> п ′ ( Б. ) знак равно 1 2 >> п ′ ( А. ∩ Б. ) знак равно 1 2 ⋅ 2 3 знак равно 1 3 ≠ 1 4-й знак равно п ′ ( А. ) ⋅ п ′ ( Б. ) > \ cdot <\ tfrac > = > \ neq > = P '(A) \ cdot P' (B)>

Элементарные свойства

  • Событие не зависит от самого себя тогда и только тогда, когда оно происходит с вероятностью 0 или 1. В частности, базовый набор и пустой набор всегда независимы сами по себе. Ω ∅
  • Если событие имеет вероятность 0 или 1, то и не зависят друг от друга при любом выборе , поскольку тогда всегда или применяется. Верно и обратное: если оно не зависит от кого-либо , то является или . А. А. Б. Б. п ( А. ∩ Б. ) знак равно 0 п ( А. ∩ Б. ) знак равно п ( Б. ) А. Б. п ( А. ) знак равно 1 п ( А. ) знак равно 0
  • Независимость не следует путать с раздробленностью . Непересекающиеся события являются независимыми только в том случае, если одно из событий имеет вероятность 0 . п ( А. ∩ Б. ) знак равно п ( ∅ ) знак равно 0
  • Используя важное понятие условной вероятности , получены следующие эквивалентные определения: два события и с независимы тогда и только тогда, когда А. Б. п ( А. ) , п ( Б. ) > 0 0>

история

Эта концепция оформилась в исследованиях Абрахама де Муавра и Томаса Байеса, посвященных азартным играм с ничьей без замены, даже если Якоб I Бернулли заранее неявно опирался на нее. Де Муавр определяется в Доктрине случая 1718 г.

«… Если часть выражает вероятность события, а другая часть - вероятность другого события, и эти два события независимы; Вероятность того, что оба эти события произойдут, будет результатом этих фракций ".

И в более позднем издании

Последний является предшественником представления стохастической независимости через условные вероятности . Первое формально правильное определение стохастической независимости было дано в 1900 году Георгом Больманном . п ( А. | Б. ) знак равно п ( А. )

Стохастическая независимость нескольких событий

определение

Позволять на вероятностное пространство , непустое множество индексов, и быть семейство событий. Семейство событий называется независимой , если для любого конечного непустого подмножества в том , что ( Ω , Σ , п ) Я. ( А. я ) я ∈ Я. ) _ > J Я.

пример

Как указано выше , являются три события , , если и стохастически независимыми , если они попарно независимы и дополнительно применяется. В следующем примере с помощью Бернштейна (1927) показывает , сопряженную независимость трех событий , и , которые, однако, не являются совместно (т.е. , и в то же время) независимый (подобный пример был дано от Георга Больмана в 1908 году ). А. 1 > А. 2 > А. 3 > п ( А. 1 ∩ А. 2 ∩ А. 3 ) знак равно п ( А. 1 ) ⋅ п ( А. 2 ) ⋅ п ( А. 3 ) \ cap A_ \ cap A_ ) = P (A_ ) \ cdot P (A_ ) \ cdot P (A_ )> А. 1 > А. 2 > А. 3 > А. 1 > А. 2 > А. 3 >

В коробке 4 листка бумаги со следующими комбинациями чисел: 112, 121, 211, 222. Один из листков бумаги вытаскивается случайным образом (каждый с вероятностью 1/4). Затем мы рассматриваем следующие три события:

Очевидно, что эти три события попарно независимы, поскольку выполняется

Однако эти три события не являются (вместе) независимыми, поскольку применяется следующее:

Кроме того, нельзя сделать вывод о том, что три события попарно независимы. Если посмотреть на базовую сумму, например п ( А. 1 ∩ А. 2 ∩ А. 3 ) знак равно п ( А. 1 ) ⋅ п ( А. 2 ) ⋅ п ( А. 3 ) \ cap A_ \ cap A_ ) = P (A_ ) \ cdot P (A_ ) \ cdot P (A_ )>

с равномерным распределением, поэтому

Но это например

Независимость и причинность

Важно то, что стохастическая независимость и причинность - принципиально разные концепции. Стохастическая независимость - это чисто абстрактное свойство вероятностных мер и событий. Нет никакой связи между стохастической и причинной независимостью как таковой . В отличие от причинной независимости, стохастическая независимость всегда является симметричным свойством, поэтому A всегда не зависит от B, а B независимо от A. Это не относится к причинной независимости.

Стохастическая независимость и причинная зависимость

Например, если при броске двух кубиков посмотреть на события, которые показывают, что на первом кубике четное число и что сумма выпавших чисел четная, тогда будет и . События стохастически независимы друг от друга, но B причинно зависит от A, поскольку бросок первого кубика также определяет сумму чисел. А. Б. п ( А. ) знак равно п ( Б. ) знак равно 1 2 >> п ( А. ∩ Б. ) знак равно 1 4-й >>

Стохастическая независимость и причинная независимость

Примером, в котором проявляются как стохастическая, так и причинная независимость, является бросание двух кубиков с событиями, когда на первом кубике отображается 6, а на втором - 6. Тогда это и , значит, есть стохастическая независимость. Кроме того, между игральными костями нет причинно-следственной связи. А. Б. п ( А. ) знак равно п ( Б. ) знак равно 1 6-е >> п ( А. ∩ Б. ) знак равно 1 36 >>

Стохастическая зависимость и причинно-следственная зависимость

Одним из случаев, когда существует как стохастическая, так и причинная зависимость, является двукратное подбрасывание монеты и события , при которых дважды подбрасывается орел, а при первом подбрасывании выпадает решка. Именно тогда и , но , поскольку события не пересекаются. Таким образом, события являются как стохастически зависимыми, так и причинно-зависимыми. А. Б. п ( А. ) знак равно 1 4-й >> п ( Б. ) знак равно 1 2 >> п ( А. ∩ Б. ) знак равно 0

Замечания

Если процедура методически верна, нельзя просто предполагать независимость, но нужно проверить ее, используя приведенную выше формулу. В большинстве случаев общая вероятность заранее не указывается. При статистической оценке собранных данных, например, тест χ 2 может использоваться для проверки характеристик на стохастическую независимость. п ( А. ∩ Б. )

Обобщения

Важным обобщением стохастической независимости является независимость систем множеств и последующее дальнейшее обобщение стохастически независимых случайных величин . Это центральное понятие теории вероятностей и предпосылка многих далеко идущих теорем. С помощью условного ожидаемого значения все упомянутые концепции могут быть расширены до условной независимости .

литература

веб ссылки

Индивидуальные доказательства

    Эта страница последний раз была отредактирована 28 апреля 2021 в 10:37.

Мы будем говорить, что случайные испытания стохастически независимы, если в соответствующем сложном испытании вероятность любого исхода каждого составляющего испытания не зависит от наблюденных исходов в предыдущих испытаниях. Очевидно, полная независимость, определенная в терминах осуществления событий, влечет стохастическую независимость, определенную только через вероятности. В тех случаях, когда мы будем интересоваться только стохастической независимостью , понятие повторных испытаний сводится к понятию одинаковых и стохастически независимых испытаний. [31]

С увеличением взаимовлияния ( стохас ической связи) случайных процессов X ( t) и Y ( t) возрастает их взаимная корреляционная функция. При отсутствии взаимовлияния ( при стохастической независимости) случайных процессов их взаимная корреляционная функция равна нулю. Подобные случайные процессы назыв аются некоррелированными. Однако равенство нулю взаимной корреляционной функции двух случайных процессов еще не является доказав льством их стохастической независимости . Лишь для случайных проце: сов с нормальным ( Гауссовым) распределением в сечениях некорре; ированные процессы обязательно независимы. [32]

Теория статистической корреляции восходит к тому времени, когда формализация теории была еще невозможна и понятие стохастической независимости по необходимости носила мистический характер. Уже тогда понимали, что независимость двух ограниченных случайных величин а нулевыми математическими ожиданиями влечет равенство Е ( XY) 0, однако сначала думали, чти это равенства должно быть и достаточным для независимости X и Y. После того как была обнаружена ложность этого заключении, долгое время искали условия, при которых обращение в нуль корреляции влечет стохастическую независимость . Как часто случается, история задачи и красота частных результатов затемнили тот факт, что современные методы позволяют дать чрезвычайно простое ее решение. Следующая теорема содержит различные результаты, доказанные ранее трудоемкими методами. [33]

Схема испытаний Бернулли - это теоретическая модель, и только опыт может показать, подходит ли она для описания конкретных наблюдений. Предположение о том, что последовательные бросания монеты соответствуют схеме Бернулли, подтверждается экспериментально. Марбе) разделяет мнение несведующих людей, считающих, что после семнадцати последовательных выпадений герба появление решетки становится более вероятным. Это убеждение возникает не из-за несовершенства реальных монет, а из-за того, что природа наделяется памятью, или - в нашей терминологии - отрицается стохастическая независимость последовательных испытаний . Теория Марбе не может быть опровергнута логически, но отвергается потому, что она не подтверждается эмпирически. [34]

Правда, почти все автсн ры повторяют слова математиков-вероятностников об осторожности трактовки величин коэффициентов корреляции. Но применяемый ими формальный аппарат говорит об обратном. Действительно, ь в теории вероятностей коэффициент корреляции вводится как параметр, существенность величины которого указывает на стохастическую связь, но не определяет меры связи, тем более меры причинной связи. Это чувствуют многие авторы. Хальда [30.524] мы находим следующее мнение: Определив коэффициент корреляции и проверив затем гипотезу о нулевой корреляции, можно иногда доказать существование стохастической связи между переменными. Однако необходимо подчеркнуть, что стохастическая зависимость не указывает с необходимостью на наличие функциональной1 связи. Коэффициент корреляции хотя и может указывать на стохастическую связь между Xi и xz, но при помощи него нельзя определить, является ли величина х причинно обусловленной величиной х2, или х2 - величиной xit или же их связь объясняется тем, что обе они причинно обусловлены другими факторами. Следовательно, и при значимом коэффициенте корреляции для определения наличия функциональной связи требуется дополнительное исследование. При дальнейшем исследовании, которое прежде всего должно основываться на знании специфики проблемы, регрессионный анализ часто играет важную роль как средство проверки сделанных гипотез. Часто стохастическая связь бывает очень тесной, а причинная вовсе отсутствует. Хальд в своей работе [30.22-23]: В то время как стохастическая независимость может скрывать причинную связь, два события могут быть стохастически зависимыми, даже если они причинно ( функционально) независимы. Если события ( / и V стахастически и причинно независимы, но каждое из них в отдельности зависит от третьего события W, то U и V часто кажутся стохастически зависимыми, если связь их с W не замечается. [35]

И всё это исчисление фактически сводится к простой формуле:

Здесь мы будем обсуждать не столь тривиальные факты из теории вероятностей. Речь пойдёт, в первую очередь, о зависимых и независимых событиях.

Важно понять, что одинаковые термины в различных разделах математики могут иметь совершенно различный смысл.

Например, когда говорят, что площадь круга S зависит от его радиуса R, то, конечно, имеется в виду функциональная зависимость


.

Совсем другой смысл у понятий зависимость и независимость в теории вероятностей.

Знакомство с этими понятиями начнём с простого примера.

Хотя мы ещё не ввели понятия зависимости/независимости, но интуитивно ясно, что любое разумное определение независимости должно быть устроено так, чтобы эти события определялись как независимые.

Для нас самое важное, что она изменилась.

Возвращаясь к первому примеру, можно сказать, информация о том, что в соседней комнате произошло событие В никак не скажется на ваших представлениях о вероятности события А. Эта вероятность не изменится от того, что вы что-то узнали о событии В.

Мы приходим к естественному и чрезвычайно важному выводу –

если информация о том, что событие В произошло меняет вероятность события А, то события А и В следует считать зависимыми, а если не меняет – то независимыми.

Этим соображениям следует придать математическую форму, определить зависимость и независимость событий с помощью формул.

Из теории информации нам нужна только одна формула, которая позволяет вычислить количество взаимной информации I(A, B) для событий А и В


Не будем вычислять количество информации для различных событий или подробно обсуждать эту формулу.

Для нас важно, что если


то количество взаимной информации между событиями А и В равно нулю − события А и В независимы. Если же



то количество взаимной информации − события А и В зависимы.

Обращение к понятию информации носит здесь вспомогательный характер и, как нам кажется, позволяет сделать более осязаемыми понятии зависимости и независимости событий.

В теории вероятностей зависимость и независимость событий описывается более формально.

В первую очередь нам понадобится понятие условной вероятности.

Условная вероятность события А при условии, что событие В произошло (Р(В) ≠0), называется величина Р(А|В), вычисляемая по формуле


.

Следуя духу нашего похода к пониманию зависимости и независимости событий можно ожидать, что условная вероятность будет обладать следующим свойством: если события А и В независимы, то


Это означает, что информация о том, что событие В произошло никак не влияет на вероятность события А.


Если события А и В независимы , то

Читайте также: