Регрессионные динамические модели реферат

Обновлено: 05.07.2024

Для решения задач экономического анализа и прогнозирования очень часто используются статистические, отчетные или наблюдаемые данные. При этом полагают, что эти данные являются значениями случайной величины. Случайной величиной называется переменная величина, которая в зависимости от случая принимает различные значения с некоторой вероятностью. Закон распределения случайной величины показывает частоту ее тех или иных значений в общей их совокупности.

Вложенные файлы: 1 файл

Основы регрессионного анализа .docx


Реферат
Основы регрессионного анализа

Содержание

ВВЕДЕНИЕ

Для решения задач экономического анализа и прогнозирования очень часто используются статистические, отчетные или наблюдаемые данные. При этом полагают, что эти данные являются значениями случайной величины. Случайной величиной называется переменная величина, которая в зависимости от случая принимает различные значения с некоторой вероятностью. Закон распределения случайной величины показывает частоту ее тех или иных значений в общей их совокупности.

При исследовании взаимосвязей между экономическими показателями на основе статистических данных часто между ними наблюдается стохастическая зависимость. Она проявляется в том, что изменение закона распределения одной случайной величины происходит под влиянием изменения другой. Взаимосвязь между величинами может быть полной (функциональной) и неполной (искаженной другими факторами).

Пример функциональной зависимости выпуск продукции и ее потребление в условиях дефицита.

Неполная зависимость наблюдается, например, между стажем рабочих и их производительностью труда. Обычно рабочие с большим стажем трудятся лучше молодых, но под влиянием дополнительных факторов образование, здоровье и т.д. эта зависимость может быть искажена.

Раздел математической статистики, посвященный изучению взаимосвязей между случайными величинами, называется корреляционным анализом (от лат. correlatio соотношение, соответствие).

Основная задача корреляционного анализа это установление характера и тесноты связи между результативными (зависимыми) и факторными (независимыми) (признаками) в данном явлении или процессе. Корреляционную связь можно обнаружить только при массовом сопоставлении фактов. Характер связи между показателями определяется по корреляционному полю. Если у зависимый признак, а х независимый, то, отметив каждый случай х (i) с координатами х и yi, получим корреляционное поле.

Теснота связи определяется с помощью коэффициента корреляции, который рассчитывается специальным образом и лежит в интервалах отминус единицы до плюс единицы.

Если значение коэффициента корреляции лежит в интервале от 1 до 0,9 по модулю, то отмечается очень сильная корреляционная зависимость. В случае если значение коэффициента корреляции лежит в интервале от 0,9 до 0,6, то говорят, что имеет место слабая корреляционная зависимость. Наконец, если значение коэффициента корреляции находится в интервале от – 0,6 до 0,6, то говорят об очень слабой корреляционной зависимости или полном ее отсутствии.

Таким образом, корреляционный анализ применяется для нахождения характера и тесноты связи между случайными величинами. Не все факторы, влияющие на экономические процессы, являются случайными величинами. Поэтому при анализе экономических явлений обычно рассматриваются связи между случайными и неслучайными величинами. Такие связи называются регрессионными, а метод математической статистики, их изучающий, называется регрессионным анализом. Рассмотрим, что представляет собой эта значимость. Обозначим коэффициент детерминации, полученный при исключении из правой части уравнения переменной. При этом мы получим уменьшение объясненной дисперсии, на величину. Для оценки значимости включения переменной используется статистика, имеющая распределение Фишера при нулевом теоретическом приросте. Вообще, если из уравнения регрессии исключаются переменных, статистикой значимости исключения будет. Пошаговая процедура построения модели. Основным критерием отбора аргументов должно быть качественное представление о факторах, влияющих на зависимую переменную, которую мы пытаемся смоделировать. Очень хорошо реализован процесс построения регрессионной модели: на машину переложена значительная доля трудностей в решении этой задачи. Возможно построение последовательное построение модели добавлением и удалением блоков переменных.

Объяснение принципов работы с регрессионным анализом начнем с более простого — парного метода.

Парный регрессионный анализ

Первые действия при использовании регрессионного анализа будут практически идентичны предпринятым нами в рамках вычисления коэффициента корреляции. Три основных условия эффективности корреляционного анализа по методу Пирсона — нормальное распределение переменных, интервальное измерение переменных, линейная связь между переменными — актуальны и для множественной регрессии. Соответственно, на первом этапе строятся диаграммы рассеяния, проводится статистически-описательный анализ переменных и вычисляется линия регрессии. Как и в рамках корреляционного анализа, линии регрессии строятся методом наименьших квадратов.

Принципиальная идея регрессионного анализа состоит в том, что, имея общую тенденцию для переменных — в виде линии регрессии, — можно предсказать значение зависимой переменной, имея значения независимой.

Разность между исходным и предсказанным значениями называется остатком (с этим термином — принципиальным для статистики — мы уже сталкивались при анализе таблиц сопряженности).

Анализ соотношения исходных и предсказанных значений служит для оценки качества полученной модели, ее прогностической способности. Одним из главных показателей регрессионной статистики является множественный коэффициент корреляции К — коэффициент корреляции между исходными и предсказанными значениями зависимой переменной. В парном регрессионном анализе он равен обычному коэффициенту корреляции Пирсона между зависимой и независимой переменной. Чтобы содержательно интерпретировать множественный В, его необходимо преобразовать в коэффициент детерминации. Это делается так же, как и в корреляционном анализе — возведением в квадрат. Коэффициент детерминации Я-квадрат (К) показывает долю вариации зависимой переменной, объясняемую независимой (независимыми) переменными.

Чем больше величина коэффициента детерминации, тем выше качество модели.

Регрессионная статистика включает в себя также дисперсионный анализ. С его помощью мы выясняем: 1) какая доля вариации (дисперсии) зависимой переменной объясняется независимой переменной; 2) какая доля дисперсии зависимой переменной приходится на остатки (необъясненная часть); 3) каково отношение этих двух величин (/А-отношение). Дисперсионная статистика особенно важна для выборочных исследований — она показывает, насколько вероятно наличие связи между независимой и зависимой переменными в генеральной совокупности. Однако и для сплошных исследований (как в нашем примере) изучение результатов дисперсионного анализа небесполезно. В этом случае проверяют, не вызвана ли выявленная статистическая закономерность стечением случайных обстоятельств, насколько она характерна для того комплекса условий, в которых находится обследуемая совокупность, т. е. устанавливается не истинность полученного результата для какой-то более обширной генеральной совокупности, а степень его закономерности, свободы от случайных воздействий.

Дополнительным условием корректности множественной регрессии (наряду с интервальностью, нормальностью и линейностью) является отсутствие мультиколлинеарности — наличия сильных корреляционных связей между независимыми переменными.

Интерпретация статистики множественной регрессии включает в себя все элементы, рассмотренные нами для случая парной регрессии. Кроме того, в статистике множественного регрессионного анализа есть и другие важные составляющие.

Работу с множественной регрессией мы проиллюстрируем на примере тестирования гипотез, объясняющих различия в уровне электоральной активности по регионам России. В ходе конкретных эмпирических исследований были высказаны предположения, что на уровень явки избирателей влияют:

Дополнительная полезная статистика в анализе соотношения исходных и предсказанных значений зависимой переменной — расстояние Махаланобиса и расстояние Кука. Первое — мера уникальности случая (показывает, насколько сочетание значений всех независимых переменных для данного случая отклоняется от среднего значения по всем независимым переменным одновременно). Второе — мера влиятельности случая. Разные наблюдения по-разному влияют на наклон линии регрессии, и с помощью расстояния Кука можно сопоставлять их по этому показателю. Это бывает полезно при чистке выбросов (выброс можно представить как чрезмерно влиятельный случай).

Регрессионный анализ своей целью имеет вывод, определение (идентификацию) уравнения регрессии, включая статистическую оценку его параметров. Уравнение регрессии позволяет найти значение зависимой переменной, если величина независимой i или независимых переменных известна. Практически, речь идет о том, чтобы, анализируя множество точек на графике (т.е. множество статистических данных), найти линию, по возможности точно отражающую заключенную в этом множестве закономерность (тренд, тенденцию), линию регрессии.

По числу факторов различают одно-, двух- и многофакторные уравнения регрессии.

По характеру связи однофакторные уравнения регрессии подразделяются на:

    • линейные
    • степенные
    • показательные

    Линейные взаимосвязи могут быть положительными или отрицательными. Если вы обнаружили, что количество поисково-спасательных операций увеличивается при возрастании среднесуточной температуры, такое отношение является положительным; имеется положительная корреляция. Другой способ описать эту положительную взаимосвязь - сказать, что количество поисково-спасательных операций уменьшается при уменьшении среднесуточной температуры. Соответственно, если вы установили, что число преступлений уменьшается при увеличении числа полицейских патрулей, данное отношение является отрицательным. Также, можно выразить это отрицательное отношение, сказав, что количество преступлений увеличивается при уменьшении количества патрулей. На рисунке ниже показаны положительные и отрицательные отношения, а также случаи, когда две переменные не связаны отношениями:

    Диаграммы рассеивания: положительная связь, отрицательная связь и пример с 2 не связанными переменными.

    Совокупность методов анализа связей между экономическими показателями. Практическое применение динамических эконометрических моделей. Сравнение двух коэффициентов регрессии. Полиномиально распределенные лаги Алмон. Функции модели адаптивных ожиданий.

    Рубрика Экономико-математическое моделирование
    Вид реферат
    Язык русский
    Дата добавления 12.02.2014
    Размер файла 283,4 K

    Подобные документы

    Необходимость использования фиктивных переменных. Авторегрессионые модели: модель адаптивных ожиданий и частичной корректировки. Метод инструментальных переменных. Полиномиально распределенные лаги Алмон. Сравнение двух регрессий. Суть метода Койка.

    контрольная работа [176,1 K], добавлен 28.07.2013

    Методологические основы эконометрики. Проблемы построения эконометрических моделей. Цели эконометрического исследования. Основные этапы эконометрического моделирования. Эконометрические модели парной линейной регрессии и методы оценки их параметров.

    контрольная работа [176,4 K], добавлен 17.10.2014

    Основы построения и тестирования адекватности экономических моделей множественной регрессии, проблема их спецификации и последствия ошибок. Методическое и информационное обеспечение множественной регрессии. Числовой пример модели множественной регрессии.

    курсовая работа [3,4 M], добавлен 10.02.2014

    Выбор факторных признаков для двухфакторной модели с помощью корреляционного анализа. Расчет коэффициентов регрессии, корреляции и эластичности. Построение модели линейной регрессии производительности труда от факторов фондо- и энерговооруженности.

    задача [142,0 K], добавлен 20.03.2010

    Определение методом регрессионного и корреляционного анализа линейных и нелинейных связей между показателями макроэкономического развития. Расчет среднего арифметического по столбцам таблицы. Определение коэффициента корреляции и уравнения регрессии.

    Актуальность выбранной темы определяется тем, что в эконометрике широко используются методы статистики. Во многих практических задачах прогнозирования, изучая различного рода связи в экономических, производственных системах, необходимо на основании экспериментальных данных выразить зависимую переменную в виде некоторой математической функции от независимых переменных – регрессоров, то есть построить регрессионную модель. Регрессионный анализ позволяет:

    · производить расчет регрессионных моделей путем определения значений параметров – постоянных коэффициентов при независимых переменных – регрессорах, которые часто называют факторами;

    · проверить гипотезу об адекватности модели имеющимся наблюдениям;

    · использовать модель для прогнозирования значений зависимой переменной при новых или ненаблюдаемых значениях независимых переменных.

    Целью курсовой работы явилось исследование регрессионного анализа и применение его в эконометрике. Для достижения поставленной цели были решены следующие задачи:

    · изучение основных положений регрессионного анализа

    · рассмотрение оценки параметров парной регрессионной модели

    · изучение интервальной оценки функции регрессии и ее параметров

    · исследование оценки значимости уравнения регрессии и особенностей применения коэффициента детерминации

    · рассмотрение практических задач

    Предметом исследования явились математико-статистические методы в экономических исследованиях.

    Объект исследования курсовой работы – практическая задача по применению регрессионного анализа в эконометрике.

    Информационную базу составили труды отечественных ученых-экономистов в области эконометрических исследований, публикации, Интернет источники и личные наблюдения автора.

    Для написания курсовой работы использовались методы статистической обработки информации, методы аналитических процедур и возможности математических расчетов для обоснования экономических исследований.

    3. Глава 1. Теоретические и методологические основы применения регрессионного анализа в эконометрике

    1.1. Основные положения регрессионного анализа

    Ставя цель дать количественное описание взаимосвязи между экономическими переменными, эконометрика прежде всего связана с методами регрессии и корреляции.

    Регрессия [regression] — это зависимость среднего значения какой-либо случайной величины от некоторой другой величины или нескольких величин[1] . Следовательно, при регрессионной связи одному и тому же значению x величины X (в отличие от функциональной связи) могут соответствовать разные случайные значения величины Y. Распределение этих значений называется условным распределением Y при данном X = x.

    Уравнение, связывающее эти величины, называется уравнением регрессии, а соответствующий график — линией регрессии величины Y по X .

    Формула для вычисления коэффициента детерминации:

    yi — выборочные данные, а fi — соответствующие им значения модели.

    Также это квадрат корреляции Пирсона между двумя переменными. Он выражает количество дисперсии, общей между двумя переменными.

    Коэффициент принимает значения из интервала [0;1]. Чем ближе значение к 1 тем ближе модель к эмпирическим наблюдениям.

    В случае парной линейной регрессионной модели коэффициент детерминации равен квадрату коэффициента корреляции, то есть R 2 = r 2 .

    Иногда показателям тесноты связи можно дать качественную оценку (шкала Чеддока) (приложение 3).

    Функциональная связь возникает при значении равном 1, а отсутствие связи — 0. При значениях показателей тесноты связи меньше 0,7 величина коэффициента детерминации всегда будет ниже 50 %. Это означает, что на долю вариации факторных признаков приходится меньшая часть по сравнению с остальными неучтенными в модели факторами, влияющими на изменение результативного показателя. Построенные при таких условиях регрессионные модели имеют низкое практическое значение.

    В настоящее время регрессионный анализ используется как в естественнонаучных исследованиях, так и в обществоведении.

    Уравнение регрессии позволяет найти значение зависимой переменной, если величина независимой или независимых переменных известна.

    Практически, речь идет о том, чтобы, анализируя множество точек на графике (т.е. множество статистических данных), найти линию, по возможности точно отражающую заключенную в этом множестве закономерность (тренд, тенденцию), линию регрессии.

    Задачи регрессионного анализа лежат в сфере установления формы зависимости, определения функции регрессии, использования уравнения для оценки неизвестных значений зависимой переменной.

    Решение задач основывается на анализе соответствующих параметров (статистических данных) в которых всегда неизбежно присутствуют отклонения, вызванные случайными ошибками. Поэтому существуют специальные методы оценки как уравнения регрессии в целом, так и отдельных ее параметров.

    Глава 2. Практическое применение регрессионного анализа в эконометрике

    В практических исследованиях возникает необходимость аппроксимировать (описать приблизительно) зависимость между переменными величинами у и х. Ее можно выразить аналитически с помощью формул и уравнений и графически в виде геометрического места точек в системе прямоугольных координат. Для выражения регрессии служат эмпирические и теоретические ряды, их графики — линии регрессии, а также корреляционные уравнения (уравнения регрессии) и коэффициент линейной регрессии.

    Показатели регрессии выражают корреляционную связь двусторонне, учитывая изменение средней величины признака у при изменении значений xi признака х, и, наоборот, показывают изменение средней величины признака х по измененным значениям yi признака у.

    Форма связи между показателями может быть разнообразной. И поэтому задача состоит в том, чтобы любую форму корреляционной связи выразить уравнением определенной функции (линейной, параболической и т.д.), что позволяет получать нужную информацию о корреляции между переменными величинами у и х, предвидеть возможные изменения признака у на основе известных изменений х, связанного с у корреляционно.

    В настоящее время регрессионный анализ используется как в естественнонаучных исследованиях, так и в обществоведении.

    В практических исследованиях возникает необходимость аппроксимировать (описать приблизительно) зависимость между переменными величинами у и х. Ее можно выразить аналитически с помощью формул и уравнений и графически в виде геометрического места точек в системе прямоугольных координат. Для выражения регрессии служат эмпирические и теоретические ряды, их графики — линии регрессии, а также корреляционные уравнения (уравнения регрессии) и коэффициент линейной регрессии.

    Показатели регрессии выражают корреляционную связь двусторонне, учитывая изменение средней величины признака у при изменении значений xi признака х, и, наоборот, показывают изменение средней величины признака х по измененным значениям yi признака у.

    Форма связи между показателями может быть разнообразной. И поэтому задача состоит в том, чтобы любую форму корреляционной связи выразить уравнением определенной функции (линейной, параболической и т.д.), что позволяет получать нужную информацию о корреляции между переменными величинами у и х, предвидеть возможные изменения признака у на основе известных изменений х, связанного с у корреляционно.

    Уравнение регрессии позволяет найти значение зависимой переменной, если величина независимой или независимых переменных известна.

    Практически, речь идет о том, чтобы, анализируя множество точек на графике (т.е. множество статистических данных), найти линию, по возможности точно отражающую заключенную в этом множестве закономерность (тренд, тенденцию), линию регрессии.

    Задачи регрессионного анализа лежат в сфере установления формы зависимости, определения функции регрессии, использования уравнения для оценки неизвестных значений зависимой переменной.

    Решение задач основывается на анализе соответствующих параметров (статистических данных) в которых всегда неизбежно присутствуют отклонения, вызванные случайными ошибками. Поэтому существуют специальные методы оценки как уравнения регрессии в целом, так и отдельных ее параметров.

    Построение линейной регрессии сводится к оценке ее параметров – a и b. Оценки параметров линейной регрессии могут быть найдены разными методами. Классический подход к оцениванию параметров линейной регрессии основан на методе наименьших квадратовВ прогнозных расчетах по уравнению регрессии путем подстановки в него соответствующего значения х определяется предсказываемое значение. Однако точечный прогноз явно не реален. Поэтому он дополняется расчетом стандартной ошибки ŷx , то есть mŷ x , и соответственно интервальной оценкой прогнозного значения (у * ).После того как найдено уравнение линейной регрессии, проводится оценка значимости как уравнения в целом, так и отдельных его параметров. Оценка значимости уравнения регрессии в целом дается с помощью F-критерия Фишера. Библиографический список 1. Басовский Л.Е., Прогнозирование и планирование в условиях рынка, учебное пособие.- М.: ИНФРА-М, - 2002.-260с.2. Бережная Е.В., Бережной В.И., Математические методы моделирования экономических систем, учебное пособие, 2е изд.,- М.: Финансы и статистка, - 2005, 432с.3. Гладилин А.В., Эконометрика: учебное пособие. – М.:КНОРУС, 2006.–232с.4. Домбровский В.В., Эконометрика: учебник.- М.: Новый учебник, 2004.-342с.5. Елисеева И.И., Эконометрика: учебник для вузов.- М.: Финансы и статистика, 2002.-344с.6. Елисеева И.И., Эконометрика: учебник, 2е изд.- М.: Финансы и статистика, 2005.-576с.7. Елисеева И.И., Практикум по эконометрике: учебное пособие.- М.: Финансы и статистика, 2002.-192с.8. Зандер Е.В., Эконометрика: учебно-методический комплекс, - Красноярск: РИО КрасГУ, 2003.- 36с.9. Колемаев В.А. Эконометрика: учебник, - М.: ИНФРА-М, 2006. – 160с.10. Интернет: Википедия Приложение 1

    Вид функции, у Первая производная, y`x Коэффициент эластичности,Э= y`x *(х/у)
    ЛинейнаяУ=а+b*x+ε b Э=(b*x)/(a+b*x)
    Парабола второго порядкаy=a+b*x+c*x 2 +ε B+2*c*x Э=((b+2*c*x)*x)/(a+b*x+c*x 2 )
    Гиперболаy=a+b/x+ε -b/x 2 Э=(-b)/(a*x+b)
    Показательнаяy=a*b x *ε ln b*a*b x Э=x*ln b
    Степеннаяy=a*x b *ε A*b*x b-1 Э=b
    Полулогарифмическаяy=a+b*lnx+ε b/x Э=b/(a+b*ln x)
    Логистическаяy=a/(1+b*e -cx +ε ) (a*b*c*e -cx )/(1+b*e -cx ) 2 Э=(c*x)/((1/b)*e cx +1)
    Обратнаяy=1/(a+b*x+ε) -b/((a+b*x) 2 ) Э=(-b*x)/(a+b*x)
    Приложение 2
    ∑(у-у) 2 = ∑(ŷх -у) 2 + ∑(у- ŷх ) 2
    Общая сумма квадратов отклонений Сумма квадратов отклонений, объясненная регрессией Остаточная сумма квадратов отклонений
    Приложение 3
    Количественная мера тесноты связи Качественная характеристика силы связи
    0,1 - 0,3 Слабая
    0,3 - 0,5 Умеренная
    0,5 - 0,7 Заметная
    0,7 - 0,9 Высокая
    0,9 - 0,99 Весьма высокая

    [1] Интернет. Экономико-математический словарь.

    [2] Е.В. Зандер, Эконометрика: Учебно-методический комплекс., Красноярск: Рио КрасГУ, 2003, 15с.

    [3] Е.В. Бережная, Математические методы моделирования экономических систем: учебное пособие, 2е изд., М.: Финансы и статистика, 2005, 148с

    [4] И.И. Елисеева, Эконометрика: учебник для вузов., М.: Финансы и статистика, 2002 – 36с.

    [5] И.И. Елисеева, Эконометрика: учебник для вузов., 2-е изд., М.: Финансы и статистика, 2005 – 81с

    [6] В.А. Колемаев, Эконометрика: учебник. – М.: ИНФРА-М, 2006, 46с

    [7] И.И. Елисеева, Эконометрика: учебник для вузов., М.: Финансы и статистика, 2002 – 42с.

    [8] И.И. Елисеева, Эконометрика: учебник для вузов., М.: Финансы и статистика, 2002 – 62с

    [9] М. Езекил: Методы анализа корреляций и регрессий., М.:Статистика, 1966.-393с

    [10] Н.Дрейнер, Г.Смит: Прикладной регрессионный анализ/Пер. с англ., М.:Статистика , 1973, 140с

    [11] А.В. Гладилин, Эконометрика: учебное пособие.- М.:КНОРУС, 2006.- 68

    [12] В.В. Дмитровский: Эконометрика: учебник, М.: Новый учебник, 2004, 27с.

    Тема 6. Специфика построения динамических регрессионных моделей

    6.1 Временной ряд. Стационарные и нестационарные временные ряды

    6.2 Динамические модели с лагами в независимых переменных

    6.3 Авторегрессионные динамические модели: методы распознавания и учета

    6.4 Проблема автокорреляции остатков и методы ее преодоления

    6.5 Особенности определения трендовой составляющей

    6.6 Методы анализа циклической составляющей в динамических моделях

    6.7 Учет в динамических моделях влияния различных факторов.

    6.8 Прогнозирование при помощи регрессионных динамических моделей

    Основные положения

    Динамической регрессионной моделью называется регрессионная модель, в которой в качестве объясняющих переменных используются не только текущие, но и предшествующие значения, а также временной фактор. Динамические регрессионные модели строятся по данным из временных рядов (рядов динамики) – последовательности данных, характеризующих состояние объекта в различные моменты времени.

    Различают стационарные и нестационарные временные ряды. В стационарных временных рядах вероятностные характеристики анализируемого показателя не меняются со временем. В таких рядах колебание зависимой переменной обусловлено действием всевозможных факторов, либо совершенно не связанных со временем (например, изменение величины экспорта во времени может зависеть от валютных курсов), либо взаимосвязь эта имеет периодический характер (величина экспорта может достаточно сильно колебаться в зависимости от времени года).

    Другими словами, свойства строго стационарного временного ряда не меняются при изменении начала отсчета времени. В частности, из предположения о строгой стационарности временного ряда xt следует, что закон распределения вероятностей случайной величины xt не зависит от t, а значит, не зависят от t и все его основные числовые характеристики, в том числе: среднее значение M(xt) = mи дисперсия D(xt) = s 2 .

    В нестационарных временных рядах анализируемый признак имеет определяемую временем устойчивую тенденцию изменения. Соответственно, все характеристики нестационарного временного ряда зависят от фактора времени.

    Динамические регрессионные модели бывают различных видов (см. рис. 6.1)

    Рис. 6.1 Типология динамических регрессионных моделей

    Большинство эконометрических моделей разработаны для анализа стационарного ряда, поскольку методы его анализа значительно проще, а нестационарный ряд достаточно легко приводится к стационарному путем исключения основной временной тенденции (тренда). Более подробно об анализе основной тенденции и колебательных (сезонных) процессов в ряде динамики можно прочитать в учебниках по статистике и в специализированной литературе. Для нас особый интерес представляют факторные динамические модели, в которых в качестве объясняющих переменных используются переменные, принадлежащие различным периодам времени.

    В том случае, если в качестве объясняющих переменных используются значения результативной переменной в предыдущие периоды, то такая модель называется авторегрессионной.

    Переменные, отражающие значения факторов в предшествующие периоды, называются лаговыми переменными. Временные лаги (запаздывание реакции зависимой переменной на изменение факторов) существуют в экономике по следующим причинам:

    1. Психологические причины. Сюда, в первую очередь, входит инерция в поведении людей, связанная с адаптивными ожиданиями.

    2. Технологические причины. К примеру, действие фактора НТП не приведет к мгновенному росту, поскольку внедрение новых технологий – достаточно длительный по времени процесс. Точно также инвестиции, направленные в отрасль, дадут отдачу только через некоторое время.

    Построим регрессионную модель динамической системы на примере. Зададим модель в виде передаточной функции (см. рис. 5.1 ).

    Рис. 5.1. Модель черного ящика
    в виде передаточной функции

    Примерный вид динамических сигналов на входе и на выходе показан на рис. 5.2 . Ограничимся временем рассмотрения сигналов, равным T .

    Рис. 5.2. Возможный вид зависимости входного сигнала X от времени t
    и зависимости выходного сигнала Y от t для случая с непрерывным временем

    После дискретизации, связанной с обработкой информации на цифровых машинах, эти сигналы будут выглядеть так, как показано на рис. 5.3 . Обратите внимание на то, что отдельные отсчеты отстоят друг от друга на расстоянии Δt . Важно, что отсчеты стоят достаточно часто. Всего этих отсчетов — n , то есть T = n · Δt ,

    Рис. 5.3. Возможный вид зависимости входного сигнала X от времени t
    и зависимости выходного сигнала Y от t для случая с дискретным временем

    Допустим, что зависимости, представленные на рис. 5.2 и рис. 5.3 , описываются передаточной функцией следующего вида (заметим, что, как и в лекции 02, вид зависимости выдвигается гипотетически и гипотеза должна быть, в конце концов, подтверждена или опровергнута):

    Дважды проинтегрируем это выражение и получим для некоторого произвольного момента времени t :

    Коэффициенты A1 , A2 , A3 , A4 требуется определить. Для этого выразим уравнение в разностном виде через суммы:

    где n — число экспериментальных точек. Заметим, что мы заменили интегралы и непрерывное течение времени — на суммы и дискретное представление времени. Чтобы вычислить суммы и двойные суммы экспериментально заданных зависимостей x и y , воспользуемся для удобства табл. 5.1 (чтобы излишне не загромождать таблицу, мы не стали дописывать в суммах Δti и Δτj ).

    Ошибку в некоторой точке можно записать так:

    Как и ранее, ошибка показывает, насколько отходит теоретическое значение Ym от экспериментального значения.

    Суммарная ошибка (вносимая всеми точками), которую надо минимизировать, будет:

    Величина ошибки зависит от значений параметров A1 , A2 , A3 , A4 . Поэтому F является функцией от четырех переменных: F(A1, A2, A3, A4) . Чтобы найти минимум функции F , доставляемый за счет параметров A1 , A2 , A3 , A4 , надо взять частные производные F по каждому из параметров и приравнять каждую производную к нулю. В результате получаем систему линейных уравнений:

    Получено четыре уравнения с четырьмя неизвестными A1 , A2 , A3 , A4 . Из решения системы уравнений вычисляем неизвестные коэффициенты и дополняем ими модель, где коэффициенты уже определены как числа:

    Задача определения коэффициентов модели решена. Разумеется, как и ранее, необходимо сравнить получаемое из этой модели решение Y теоретическое с Y , заданным экспериментально, и вычислить ошибку F . Далее проверить ее значение по критерию — допустимо ли значение вычисленной ошибки, или гипотезу о виде модели требуется сменить на более точную.

    Считая что коэффициенты модели теперь нам известны, построим для заданного примера реализацию, имитирующую поведение системы, описанной передаточной функцией. Для этого воспользуемся уже однажды полученной формулой:

    Реализация модели представлена на рис. 5.4 .

    Рис. 5.4. Техническая реализация передаточного звена после определения
    коэффициентов регрессионной модели

    При переходе от интеграла к численному суммированию мы воспользовались методом прямоугольников. Разбив площадь под кривой y на ряд прямоугольников одинаковой ширины Δt (см. рис. 5.5 ), получаем, что площадь прямоугольника равна yi · Δt , а S — сумма площадей всех n прямоугольников — будет приблизительно равна площади под кривой (интегралу от функции y ). Очевидно, что приближение тем точнее, чем меньше значение Δt .

    Читайте также: