Показатели качества регрессии модели парной регрессии реферат

Обновлено: 05.07.2024

Для решения задач экономического анализа и прогнозирования очень часто используются статистические, отчетные или наблюдаемые данные. При этом полагают, что эти данные являются значениями случайной величины. Случайной величиной называется переменная величина, которая в зависимости от случая принимает различные значения с некоторой вероятностью. Закон распределения случайной величины показывает частоту ее тех или иных значений в общей их совокупности.

Вложенные файлы: 1 файл

Основы регрессионного анализа .docx


Реферат
Основы регрессионного анализа

Содержание

ВВЕДЕНИЕ

Для решения задач экономического анализа и прогнозирования очень часто используются статистические, отчетные или наблюдаемые данные. При этом полагают, что эти данные являются значениями случайной величины. Случайной величиной называется переменная величина, которая в зависимости от случая принимает различные значения с некоторой вероятностью. Закон распределения случайной величины показывает частоту ее тех или иных значений в общей их совокупности.

При исследовании взаимосвязей между экономическими показателями на основе статистических данных часто между ними наблюдается стохастическая зависимость. Она проявляется в том, что изменение закона распределения одной случайной величины происходит под влиянием изменения другой. Взаимосвязь между величинами может быть полной (функциональной) и неполной (искаженной другими факторами).

Пример функциональной зависимости выпуск продукции и ее потребление в условиях дефицита.

Неполная зависимость наблюдается, например, между стажем рабочих и их производительностью труда. Обычно рабочие с большим стажем трудятся лучше молодых, но под влиянием дополнительных факторов образование, здоровье и т.д. эта зависимость может быть искажена.

Раздел математической статистики, посвященный изучению взаимосвязей между случайными величинами, называется корреляционным анализом (от лат. correlatio соотношение, соответствие).

Основная задача корреляционного анализа это установление характера и тесноты связи между результативными (зависимыми) и факторными (независимыми) (признаками) в данном явлении или процессе. Корреляционную связь можно обнаружить только при массовом сопоставлении фактов. Характер связи между показателями определяется по корреляционному полю. Если у зависимый признак, а х независимый, то, отметив каждый случай х (i) с координатами х и yi, получим корреляционное поле.

Теснота связи определяется с помощью коэффициента корреляции, который рассчитывается специальным образом и лежит в интервалах отминус единицы до плюс единицы.

Если значение коэффициента корреляции лежит в интервале от 1 до 0,9 по модулю, то отмечается очень сильная корреляционная зависимость. В случае если значение коэффициента корреляции лежит в интервале от 0,9 до 0,6, то говорят, что имеет место слабая корреляционная зависимость. Наконец, если значение коэффициента корреляции находится в интервале от – 0,6 до 0,6, то говорят об очень слабой корреляционной зависимости или полном ее отсутствии.

Таким образом, корреляционный анализ применяется для нахождения характера и тесноты связи между случайными величинами. Не все факторы, влияющие на экономические процессы, являются случайными величинами. Поэтому при анализе экономических явлений обычно рассматриваются связи между случайными и неслучайными величинами. Такие связи называются регрессионными, а метод математической статистики, их изучающий, называется регрессионным анализом. Рассмотрим, что представляет собой эта значимость. Обозначим коэффициент детерминации, полученный при исключении из правой части уравнения переменной. При этом мы получим уменьшение объясненной дисперсии, на величину. Для оценки значимости включения переменной используется статистика, имеющая распределение Фишера при нулевом теоретическом приросте. Вообще, если из уравнения регрессии исключаются переменных, статистикой значимости исключения будет. Пошаговая процедура построения модели. Основным критерием отбора аргументов должно быть качественное представление о факторах, влияющих на зависимую переменную, которую мы пытаемся смоделировать. Очень хорошо реализован процесс построения регрессионной модели: на машину переложена значительная доля трудностей в решении этой задачи. Возможно построение последовательное построение модели добавлением и удалением блоков переменных.

Объяснение принципов работы с регрессионным анализом начнем с более простого — парного метода.

Парный регрессионный анализ

Первые действия при использовании регрессионного анализа будут практически идентичны предпринятым нами в рамках вычисления коэффициента корреляции. Три основных условия эффективности корреляционного анализа по методу Пирсона — нормальное распределение переменных, интервальное измерение переменных, линейная связь между переменными — актуальны и для множественной регрессии. Соответственно, на первом этапе строятся диаграммы рассеяния, проводится статистически-описательный анализ переменных и вычисляется линия регрессии. Как и в рамках корреляционного анализа, линии регрессии строятся методом наименьших квадратов.

Принципиальная идея регрессионного анализа состоит в том, что, имея общую тенденцию для переменных — в виде линии регрессии, — можно предсказать значение зависимой переменной, имея значения независимой.

Разность между исходным и предсказанным значениями называется остатком (с этим термином — принципиальным для статистики — мы уже сталкивались при анализе таблиц сопряженности).

Анализ соотношения исходных и предсказанных значений служит для оценки качества полученной модели, ее прогностической способности. Одним из главных показателей регрессионной статистики является множественный коэффициент корреляции К — коэффициент корреляции между исходными и предсказанными значениями зависимой переменной. В парном регрессионном анализе он равен обычному коэффициенту корреляции Пирсона между зависимой и независимой переменной. Чтобы содержательно интерпретировать множественный В, его необходимо преобразовать в коэффициент детерминации. Это делается так же, как и в корреляционном анализе — возведением в квадрат. Коэффициент детерминации Я-квадрат (К) показывает долю вариации зависимой переменной, объясняемую независимой (независимыми) переменными.

Чем больше величина коэффициента детерминации, тем выше качество модели.

Регрессионная статистика включает в себя также дисперсионный анализ. С его помощью мы выясняем: 1) какая доля вариации (дисперсии) зависимой переменной объясняется независимой переменной; 2) какая доля дисперсии зависимой переменной приходится на остатки (необъясненная часть); 3) каково отношение этих двух величин (/А-отношение). Дисперсионная статистика особенно важна для выборочных исследований — она показывает, насколько вероятно наличие связи между независимой и зависимой переменными в генеральной совокупности. Однако и для сплошных исследований (как в нашем примере) изучение результатов дисперсионного анализа небесполезно. В этом случае проверяют, не вызвана ли выявленная статистическая закономерность стечением случайных обстоятельств, насколько она характерна для того комплекса условий, в которых находится обследуемая совокупность, т. е. устанавливается не истинность полученного результата для какой-то более обширной генеральной совокупности, а степень его закономерности, свободы от случайных воздействий.

Дополнительным условием корректности множественной регрессии (наряду с интервальностью, нормальностью и линейностью) является отсутствие мультиколлинеарности — наличия сильных корреляционных связей между независимыми переменными.

Интерпретация статистики множественной регрессии включает в себя все элементы, рассмотренные нами для случая парной регрессии. Кроме того, в статистике множественного регрессионного анализа есть и другие важные составляющие.

Работу с множественной регрессией мы проиллюстрируем на примере тестирования гипотез, объясняющих различия в уровне электоральной активности по регионам России. В ходе конкретных эмпирических исследований были высказаны предположения, что на уровень явки избирателей влияют:

Дополнительная полезная статистика в анализе соотношения исходных и предсказанных значений зависимой переменной — расстояние Махаланобиса и расстояние Кука. Первое — мера уникальности случая (показывает, насколько сочетание значений всех независимых переменных для данного случая отклоняется от среднего значения по всем независимым переменным одновременно). Второе — мера влиятельности случая. Разные наблюдения по-разному влияют на наклон линии регрессии, и с помощью расстояния Кука можно сопоставлять их по этому показателю. Это бывает полезно при чистке выбросов (выброс можно представить как чрезмерно влиятельный случай).

Регрессионный анализ своей целью имеет вывод, определение (идентификацию) уравнения регрессии, включая статистическую оценку его параметров. Уравнение регрессии позволяет найти значение зависимой переменной, если величина независимой i или независимых переменных известна. Практически, речь идет о том, чтобы, анализируя множество точек на графике (т.е. множество статистических данных), найти линию, по возможности точно отражающую заключенную в этом множестве закономерность (тренд, тенденцию), линию регрессии.

По числу факторов различают одно-, двух- и многофакторные уравнения регрессии.

По характеру связи однофакторные уравнения регрессии подразделяются на:

    • линейные
    • степенные
    • показательные

    Линейные взаимосвязи могут быть положительными или отрицательными. Если вы обнаружили, что количество поисково-спасательных операций увеличивается при возрастании среднесуточной температуры, такое отношение является положительным; имеется положительная корреляция. Другой способ описать эту положительную взаимосвязь - сказать, что количество поисково-спасательных операций уменьшается при уменьшении среднесуточной температуры. Соответственно, если вы установили, что число преступлений уменьшается при увеличении числа полицейских патрулей, данное отношение является отрицательным. Также, можно выразить это отрицательное отношение, сказав, что количество преступлений увеличивается при уменьшении количества патрулей. На рисунке ниже показаны положительные и отрицательные отношения, а также случаи, когда две переменные не связаны отношениями:

    Диаграммы рассеивания: положительная связь, отрицательная связь и пример с 2 не связанными переменными.

    Качеством модели регрессии называется адекватность построенной модели исходным (наблюдаемым) данным.

    Для оценки качества модели регрессии используются специальные показатели.

    Качество линейной модели парной регрессии характеризуется с помощью следующих показателей:

    1) парной линейный коэффициент корреляции, который рассчитывается по формуле:


    где G(x) – среднеквадратическое отклонение независимой переменной;

    G(y) – среднеквадратическое отклонение зависимой переменной.

    Также парный линейный коэффициент корреляции можно рассчитать через МНК-оценку коэффициента модели регрессии



    Парный линейный коэффициент корреляции характеризует степень тесноты связи между исследуемыми переменными. Он рассчитывается только для количественных переменных. Чем ближе модуль значения коэффициента корреляции к единице, тем более тесной является связь между исследуемыми переменными. Данный коэффициент изменяется в пределах [-1; +1]. Если значение коэффициента корреляции находится в пределах от нуля до единицы, то связь между переменными прямая, т. е. с увеличением независимой переменной увеличивается и зависимая переменная, и наборот. Если коэффициент корреляции находится в пределах отминусеиницы до нуля, то связь между переменными обратная, т. е. с увеличением независимой переменной уменьшается зависимая переменная, и наоборот. Если коэффициент корреляции равен нулю, то связь между переменными отсутствует. Если коэффициент корреляции равен единице или минус единице, то связь между переменными существует функциональная связь, т. е. изменения независимой и зависимой переменных полностью соответствуют друг другу.

    2) коэффициент детерминации рассчитывается как вадрат парного линейного коэффициента корреляции и обозначается как ryx2. Данный коэффициент характеризует в процентном отношении вариацию зависимой переменной, объяснённой вариацией независимой переменной, в общем объёме вариации.

    Качество линейной модели множественной регрессии характеризуется с помощью показателей, построенных на основе теоремы о разложении дисперсий.

    Теорема. Общая дисперсия зависимой переменной может быть разложена на объяснённую и необъяснённую построенной моделью регрессии дисперсии:


    где G2(y) – это общая дисперсия зависимой переменной;

    σ2(y) – это объяснённая с помощью построенной модели регрессии дисперсия переменной у, которая рассчитывается по формуле:


    δ2(y) – необъяснённая или остаточная дисперсия переменной у, которая рассчитывается по формуле:


    С использованием теоремы о разложении дисперсий рассчитываются следующие показатели качества линейной модели множественной регрессии:

    1) множественный коэффициент корреляции между зависимой переменной у и несколькими независимыми переменными хi:


    Данный коэффициент характеризует степень тесноты связи между зависимой и независимыми переменными. Свойства множественного коэффициента корреляции аналогичны свойствам линейнойго парного коэффициента корреляции.

    2) теоретический коэффициент детерминации рассчитывается как квадрат множественного коэффициента корреляции:


    Данный коэффициент характеризует в процентном отношении вариацию зависимой переменной, объяснённой вариацией независимых переменных;


    характеризует в процентном отношении ту долю вариации зависимой переменной, которая не учитывается а построенной модели регрессии;

    4) среднеквадратическая ошибка модели регрессии (Meansquareerror – MSE):


    где h– это количество параметров, входящих в модель регрессии.

    Если показатель среднеквадратической ошибки окажется меньше показателя среднеквадратического отклонения наблюдаемых значений зависимой переменной от модельных значений β(у), то модель регрессии можно считать качественной.

    Показатель среднеквадратического отклонения наблюдаемых значений зависимой переменной от модельных значений рассчитывается по формуле:


    5) показатель средней ошибки аппроксимации рассчитывается по формуле:


    Если величина данного показателя составляет менее 6-7%, то качество построенной модели регрессии считается хорошим. Максимально допустимым значением показателя средней ошибки аппроксимации считается 12-15 %.

    13 .

    Свойства дисперсии определяются свойствами МО. Напомним, дисперсия является центральным моментом второго порядка:

    Дисперсия любой случайной величины независимо от вида распределения, которому она подчиняется обладает следующими свойствами.

    1.ДИСПЕРСИЯ НЕСЛУЧАЙНОЙ ВЕЛИЧИНЫ РАВНО НУЛЮ.

    Пусть а - неслучайная величина. Тогда D(a)=M[(a-M(a))2]=M[0]=0.

    2. ДИСПЕРСИЯ СУММЫ НЕСЛУЧАЙНОЙ И СЛУЧАЙНОЙ ВЕЛИЧИН РАВНА ДИСПЕРСИИ СЛУЧАЙНОЙ ВЕЛИЧИНЫ (ДИСПЕРСИЯ ИНВАРИАНТНА СДВИГУ).

    Пусть а - неслучайная величина. Тогда D(a+x)=M[(a+x-M(a+x))2]= M[(x-M(x))2]=D(x).

    3.ДИСПЕРСИЯ ПРОИЗВЕДЕНИЯ НЕСЛУЧАЙНОЙ ВЕЛИЧИНЫ НА СЛУЧАЙНУЮ РАВНА ПРОИЗВЕДЕНИЮ СЛУЧАЙНОЙ ВЕЛИЧИНЫ НА КВАДРАТ НЕСЛУЧАЙНОЙ ВЕЛИЧИНЫ.

    Пусть а - неслучайная величина. Тогда D(a*x)=M[(a*x-M(a*x))2]=M[(a*(x-M(x))2]=

    4. ДИСПЕРСИЯ СУММЫ ДВУХ СЛУЧАЙНЫХ ВЕЛИЧИН РАВНА СУММЕ ДИСПЕРСИЙ ЭТИХ ВЕЛИЧИН И УДВОЕННОЙ КОВАРИАЦИИ ЭТИХ ВЕЛИЧИН.

    Пусть x и у - случайные величины. Тогда D(x+y)=M[((x+y)-M(x+y))2]= =M[((x-Mx)+(y-My))2]=M[(x-Mx)2+(y-My)2+2*(x-Mx)*(y-My)]=M[(x-Mx)2]+ +M[(y-My)]+2*M[(x-Mx)*(y-My)]=D(x)+D(y)+2*COV(x,y).

    Величина COV(x,y)=M[(x-Mx)*(y-My)] называется ковариацией и обладает свойством: ДЛЯ НЕЗАВИСИМЫХ СЛУЧАЙНЫХ ВЕЛИЧИН КОВАРИАЦИЯ ВСЕГДА РАВНА НУЛЮ. Отсюда, следует: ДИСПЕРСИЯ СУММЫ ДВУХ НЕЗАВИСИМЫХ (И ТОЛЬКО НЕЗАВИСИМЫХ) СЛУЧАЙНЫХ ВЕЛИЧИН РАВНА СУММЕ ДИСПЕРСИЙ ЭТИХ ВЕЛИЧИН.

    Для оценки параметров нелинейных моделей используются два подхода. Первый подход основан на линеаризации модели и заключается в том, что с помощью подходящих преобразований исходных переменных исследуемую зависимость представляют в виде линейного соотношения между преобразованными переменными. Второй подход обычно применяется в случае, когда подобрать соответствующее линеаризующее преобразование не удается. В этом случае применяются методы нелинейной оптимизации на основе исходных переменных. Таким образом, функции, которые показывают изменение одной переменной от другой в процентах или в несколько раз являются функциями, отражающими эластичность.

    10.

    Обобщенный метод наименьших квадратов, теорема Айткена

    Применение обычного метода наименьших квадратов при нарушении условия гомоскедастичности приводит к следующим отрицательным последствиям:

    1. оценки неизвестных коэффициентов β неэффективны, то есть существуют другие оценки, которые являются несмещенными и имеют меньшую дисперсию.

    2. стандартные ошибки коэффициентов регрессии будут занижены, а, следовательно, t -статистики – завышены, и будет получено неправильное представление о точности уравнения регрессии.

    Обобщенный метод наименьших квадратов

    Рассмотрим метод оценивания при нарушении условия гомоскедастичности, матрица имеет вид β= (ХТ Ω-1 Х)-1 ХТ Ω-1у

    Расчёт неизвестных коэффициентов регрессии по данной формуле называют обобщённым методом наименьших квадратов (ОМНК).

    Теорема Айткена: при нарушении предположения гомоскедастичности оценки, полученные обобщенным методом наименьших квадратов, являются несмещенными и наиболее эффективными (имеющими наименьшую вариацию). На практике матрица Ω практически никогда не известна. Поэтому часто пытаются каким-либо методом оценить оценки матрицы Ω и использовать их для оценивания. Этот метод носит название доступного обобщенного метода наименьших квадратов.

    Качество модели регрессии связывают с адекватностью модели наблюдаемым (эмпирическим) данным. Проверка адекватности (или соответствия) модели регрессии наблюдаемым данным проводится на основе анализа остатков — . Остаток представляет собой отклонение фактического значения зависимой переменной от значения данной переменной, полученное расчетным путем: . Если , то для всех наблюдений фактические значения зависимой переменной совпадают с расчетными (теоретическими) значениями: ). Графически это означает, что теоретическая линия регрессии (линия, построенная по функции проходит через все точки корреляционного поля, что возможно только при строго функциональной связи. Следовательно, результативный признак у полностью обусловлен влиянием фактора х.


    На практике, как правило, имеет место некоторое рассеивание точек корреляционного поля относительно теоретической линии регрессии, т. е. отклонения эмпирических данных от теоретических . Величина этих отклонений и лежит в основе расчета показателей качества (адекватности) уравнения.

    При анализе качества модели регрессии используется теорема о разложении дисперсии, согласно которой общая дисперсия результативного признака может быть разложена на две составляющие – объясненную и необъясненную уравнением регрессии дисперсии:


    ,


    где объясненная уравнением регрессии дисперсия результативного признака;


    необъясненная уравнением регрессии (остаточная) дисперсия результативного признака.

    На основе теоремы о разложении дисперсии рассчитываются показатели качества модели регрессии.

    1. Теоретический коэффициент (индекс для нелинейных форм связей) детерминации: . Он представляет собой отношение объясненной (уравнением) дисперсии признака-результата к общей дисперсии результативного признака. Коэффициент детерминации характеризует долю вариации (дисперсии) результативного признака, объясняемую регрессией в общей вариации (дисперсии) у. Соответственно величина характеризует долю вариации (дисперсии) у, необъясненную уравнением регрессии, а значит, вызванную влиянием прочих неучтенных в модели факторов.


    При парной линейной регрессии коэффициент детерминации равен квадрату парного линейного коэффициента корреляции .

    Коэффициент линейной парной корреляции – показатель тесноты линейной связи между признаками у и х:



    где – среднее квадратическое отклонение фактора;


    – среднее квадратическое отклонение результата.


    Формула его расчета очень похожа на формулу расчета коэффициента регрессии методом наименьших квадратов – . Поэтому коэффициент линейной парной корреляции может быть рассчитан следующим образом:



    Область допустимых значений линейного парного коэффициента корреляции от -1 до +1. Если коэффициент корреляции по модулю близок к единице, то связь между признаками может быть охарактеризована как тесная линейная. Если коэффициент корреляции по модулю близок к нулю, то имеет место слабая линейная зависимость.

    2. Корень из этого коэффициента (индекса) детерминации есть коэффициент (индекс) множественной корреляции, или теоретическое корреляционное отношение. Если все точки корреляционного поля лежат на теоретической линии регрессии, то ; следовательно связь между у и х — функциональная, и уравнение регрессии очень хорошо описывает фактические данные. Если , то уравнение плохо описывает данные, а значит, связь между признаками отсутствует.


    В случае парной линейной регрессии

    3. Средняя квадратическая ошибка уравнения регрессии представляет собой среднее квадратическое отклонение наблюдаемых значений результативного признака от теоретических значений, рассчитанных по модели, т.е.: , где h равно числу параметров в модели регрессии. Величину средней квадратической ошибки можно сравнить со средним квадратическим отклонением результативного признака . Если окажется меньше , использование модели регрессии является целесообразным.


    4. Средняя ошибка аппроксимации . Чем меньше рассеяние эмпирических точек вокруг теоретической линии регрессии, тем меньше средняя ошибка аппроксимации. Ошибка аппроксимации меньше 7% свидетельствует о хорошем качестве модели.

    При обработке информации на компьютере выбор вида зависимости (вида уравнения регрессии) обычно осуществляется методом сравнения величины показателя адекватности, рассчитанного при разных видах зависимости. Если показатели адекватности оказываются примерно одинаковыми для нескольких функций, то предпочтение отдается более простым видам функций, ибо они в большей степени поддаются интерпретации и требуют меньшего объема наблюдений.


    Для данных табл. 1.6 была построена линейная парная модель регрессии: , описывающая зависимость заработной платы рабочего от его возраста.

    Рассчитаем показатели качества модели регрессии для этого примера.

    Для расчета теоретического коэффициента детерминации определим значение линейного парного коэффициента корреляции через МНК-оценку коэффициента регрессии: =
    (где среднее квадратическое отклонение возраста рабочего; – среднее квадратическое отклонение заработной платы рабочего).


    Тогда теоретический коэффициент детерминации будет равен: . Следовательно 72,8% вариации заработной платы рабочего объясняется уравнением линейной регрессии, а значит и возрастом рабочего. А100 – 72,8 = 27,2 % вариации заработной платы обусловлено влиянием не учтенных в модели факторов.


    Коэффициент множественной корреляции равен: . Близость к единице данного показателя свидетельствует о хорошей аппроксимации модели фактических данных.

    Для расчета средней квадратической ошибки уравнения регрессии нужно рассчитать теоретические значения результативного признака , остатки и их квадраты. Результаты расчета сведены в табл.1.6.

    Наблюдение — i yi>


    271,9233 28,0767 788,3009
    351,4487 48,55133 2357,232
    322,5304 -22,5304 507,6168
    293,612 26,38796 696,3245
    228,5458 -28,5458 814,8646
    387,5966 -37,5966 1413,501
    336,9895 13,01049 169,2729
    351,4487 48,55133 2357,232
    423,7445 -43,7445 1913,577
    402,0557 -2,05571 4,22596
    И 264,6937 -14,6937 215,9056
    279,1529 70,84712 5019,314
    243,005 -43,005 1849,429
    409,2853 -9,28529 86,21667
    279,1529 -59,1529 3499,063
    351,4487 ' -31,4487 989,0186
    351,4487 38,55133 1486,205
    336,9895 23,01049 529,4827
    271,9233 -11,9233 142,1652
    243,005 6,99501 48,93017
    Итого 24887,88


    Тогда 5 (в нашем примере п =20, h=2).

    Среднюю квадратическую ошибку можно найти другим способом – через теоретический коэффициент детерминации, не прибегая к расчетам теоретических значений признака-результата и остатков:


    =

    Величина = 37,18 оказывается меньше , следовательно, модель регрессии целесообразно использовать.

    Рассчитаем среднюю ошибку аппроксимации. Для нашего примера А = 0,1002 (10 %), что свидетельствует о незначительной погрешности модели.

    Реферат - Регрессионный анализ. Парная регрессия

    Реферат
    Тема: Регрессионный анализ. Парная регрессия.

    Содержание:
    Построение регрессионных моделей.
    Построение модели.
    Проверка статистической значимости уравнения регрессии.
    Характеристика оценок коэффициентов уравнения регрессии.

    Смысл регрессионного анализа – построение функциональных зависимостей между двумя группами переменных величин Х1, Х2, … Хр и Y. При этом речь идет о влиянии переменных Х (это будут аргументы функций) на значения переменной Y (значение функции). Переменные Х мы будем называть факторами, а Y – откликом.
    Сегодня мы разберем наиболее простой случай – установление зависимости одного отклика y от одного фактора х. Такой случай называется парной (простой) регрессией

    Дежурко Л.Ф. Эконометрика

    • формат doc
    • размер 176.48 КБ
    • добавлен 27 октября 2010 г.

    Мн.: БГЭУ, 2009 г. , 41 стр. Учебно-методическое пособие. Содержание: Основные понятия эконометрики. Парная линейная регрессия. Нелинейная регрессия. Множественная регрессия. Временные ряды. Эконометрический анализ при нарушении предпосылок. метода наименьших квадратов.

    Лабораторная работа

    • формат doc
    • размер 210.13 КБ
    • добавлен 25 апреля 2009 г.

    Парная регрессия. Множественная регрессия. Системы эконометрических уравнений. Анализ временных рядов. Таблица значений F-критерия Фишера при уровне значимости. Критические значения t-критерия Стьюдента при уровне значимости 0,10; 0,05; , 0,01(двухсторонний). Критические значения корреляции для уровней значимости 0,05 и 0,01 Значения статистик Дарбина – Уотсона

    Лабораторная работа - Построение и анализ моделей линейной регрессии

    • формат xls, doc
    • размер 294.82 КБ
    • добавлен 24 февраля 2011 г.

    Исследуется зависимость размера дивидендов акций группы компаний от доходности акций, дохода компании и объема инвестиций в расширение и модернизацию производства. Исходные данные представлены выборкой объема Парная линейная регрессия Множественная линейная регрессия

    Лекции - Эконометрика

    • формат doc
    • размер 745 КБ
    • добавлен 28 октября 2009 г.

    Введение. Эконометрика и эконометрическое моделирование: основные понятия и определения Парная корреляция и регрессия Ковариация. Выборочный коэффициент парной корреляции Оценка значимости выборочного коэффициента парной корреляции Модель парной регрессии. Основные понятия. Линейная парная регрессия Определение параметров линейной парной модели методом МНК Проверка значимости параметров парной линейной модели Проверка выполнения предпосылок МНК.

    Лекции по эконометрике

    • формат doc
    • размер 759.37 КБ
    • добавлен 05 мая 2009 г.

    Днепропетровский университет экономики и права Эконометрика Конспект лекций. Для всех специальностей направлений. Предмет и задачи эконометрии Простейшие примеры эконометрических моделей Основные сведения из теории вероятностей и математической статистики Парная регрессия Линейная регрессия Анализ уравнений линейной регрессии. Коэффициент корреляции и его свойства. Проверка адекватности нелинейной корреляционной модели. Коэффициент детерминации.

    Общий вариант фондовых лекций(методичка) 2 курс

    • формат doc
    • размер 1.67 МБ
    • добавлен 14 апреля 2011 г.

    Парная регрессия и корреляция. Множественная регрессия и корреляция. Метод наименьших квадратов. системы эконометрических уравнений. и. т. д. Вэпи 2 курс.

    Расчетная работа по эконометрике (43 стр. с приложениями)

    • формат doc
    • размер 1.44 МБ
    • добавлен 15 февраля 2010 г.

    3 задачи: парная линейная регрессия (построение модели, анализ качества, точечный и интервальный прогнозы), множественная регрессия (построение модели с помощью метода многошагового регрессионного анализа, прогноз), сглаживание временного ряда - все подробно описано, приведены результаты промежуточных расчетов, сделаны выводы. Сдано для специальности "Математические методы в экономике"

    Реферат - Метод Наименьших Квадратов (МНК)

    • формат rtf
    • размер 8.2 МБ
    • добавлен 20 июня 2010 г.

    Оглавление Введение История Постановка задачи Примеры Свойства оценок на основе МНК Парная линейная регрессия. Метод наименьших квадратов Взвешенный метод наименьших квадратов Системы одновременных уравнений Нелинейная регрессия Авторегрессионное преобразование Применение МНК в экономике Заключение Список литературы КИГМС, Организация и Технология Защиты Информации,2 курс/4семестр

    Решение эконометрических задач в EXCEL(примеры)

    • формат doc
    • размер 235.21 КБ
    • добавлен 04 августа 2011 г.

    В данном файле, приводится решения двух задач по дисциплине "эконометрика". Примеры взяты из двух тем: -парная множественная регрессия -парная линейная регрессия страниц:16 Год: 2010

    Сидоренко М.Г. Эконометрика

    • формат pdf
    • размер 1001.03 КБ
    • добавлен 21 декабря 2011 г.

    Учебное пособие. - Томск: ТУСУР, 2004. - 119 с. Парная линейная регрессия. Множественная линейная регрессия. Нелинейная регрессия. Гетероскедастичность. Автокорреляция. Фиктивные переменные в регрессионных моделях. Динамические модели. Системы одновременных уравнений.

    Гост

    ГОСТ

    Понятие линейной регрессии

    Линейная регрессия – это математический метод установления зависимости между двумя переменными.

    Теоретическая экономика строится на математических вычислениях и моделировании, которые позволяют описывать события, явления, динамику их изменения. Так же язык математики позволяет прогнозировать будущее положение экономических систем, субъектов и объектов.

    Теория вероятности использует регрессию, как метод математической статистики. Она позволяет выявить прямую зависимость между величинами случайной природы. Основным отличием регрессии от функциональной зависимости является факт того, что одному и тому же значению искомой переменной может соответствовать множество других переменных.

    Линейная регрессия представляет зависимость в виде линейной модели с учетом ошибки распределения. При этом значения каждой величины заранее неизвестны. Параметры для уравнения описывают выборочные оценки, важные для конкретного исследования. Обычно для исчисления используются экспериментальные данные.

    Модель линейной регрессии активно применяется в эконометрике. Она удобна для изучения свойств оценок параметров, а так же для исследования случайных ошибок модели. С точки зрения эконометрической науки линейность чаще всего применяется для параметров, а не для факторов. Линейная модель может иметь константу, либо рассматриваться без нее. В этом случае первый фактор модели будет равным единице, либо останется обычным фактором.

    Существует частный случай парной простейшей регрессии. В этом случае на модель воздействует только один фактор. Если количество факторов увеличивается, что регрессия становится множественной. В практической деятельности линейную регрессию применятся для расчета затрат организации, потребительских расходов.

    Готовые работы на аналогичную тему

    Парная линейная регрессия

    Зависимость меду одной переменной и средним показателем другой называется парной линейной регрессией.

    Модель математически записывается следующим образом:

    где x – факторная переменная, y – зависимая, e – отклонение или остаток

    Решение подобных задач в математике проводится по определенному алгоритму, который позволяет найти уравнение регрессии. Для этого необходимо выполнить следующие шаги:

    1. Построение модели уравнения. Для подбора данных может использоваться графический метод, который заключается в построении диаграммы рассеивания и ее последующем анализе.
    2. Поиск параметров уравнения. Самым удобным считается метод наименьших квадратов.
    3. Коэффициент корреляции проверяется на значимость.
    4. Проверка модели на ее качественность с помощью критерия Фишера.
    5. Анализ остатков.
    6. Вычисление стандартной ошибки.
    7. Прогноз модели, если того требует исследование.

    Парная регрессия позволяет установить связь между несколькими переменными. Ее называют однофактороной, если одна независимая величина влияет на другой зависимый элемент уравнения. В практической деятельности парная регрессия используется для прогнозирования, поиска утерянных неизвестных. Если она строится для генеральной совокупности, то необходимо чтобы данные о каждом элементе были доступны. Обычно, на практике исследователь не обладает полной информацией, поэтому он использует данные об элементах из некоторой статистической выборки.

    Чтобы рассмотреть генеральную совокупность, параметры заменяются на те, что известны в выборке. То есть свободный член регрессии генеральной совокупности заменяется соответствующим из выборки, параметры которой заранее известны. Такая же замена происходит для коэффициента направления регрессии.

    Применение метода наименьших квадратов в парной регрессии

    Если исследователь изначально знает, что зависимость между фактором и переменной линейная, то он выражает ее в форме стандартного линейного уравнения y = ax + b. Задача заключается в поиску группы точек, которые помогут построить оптимальную для заданных параметров прямую. Эта прямая и будет демонстрировать распределение точек парной линейной регрессии. Значение коэффициентов или параметров уравнения осуществляется с помощью метода наименьших квадратов.

    Метод наименьших квадратов является математическим. Он применяется для решения различных задач, чтобы минимизировать отклонения результатов исследования при заданных условиях. Его применяют для решения уравнений в случае их переопределения, в случае, если количество уравнений превышает количество неизвестных, а так же для приближения точечных значений. Метод наименьших квадратов является базовым для регрессионного анализа.

    Уравнение регрессии устанавливает связь между фактором и результатом. Чтобы определить тип будущего уравнения строят зависимость графически. Но есть другие рекомендации, которые позволяют установить форму связи без дополнительных построений. Если факторный и результативный признаки изменяются одинаково, то между ними существует линейная связь. Если процесс идет неравномерно или в обратную сторону, то связь является гиперболической. Оценка параметров такого уравнения проводится методом наименьших квадратов. Он предполагает, что переменные независимы. Выбранный уровень регрессии должен сводить сумму квадратов отклонений к минимуму. Проверка в этом случае будет считаться законченной.

    Читайте также: