равновесные, статистические и динамические.
Макроэкономические модели описывают экономику как единое целое,
связывая между собой укрупненные материальные и финансовые показатели: ВНП,
потребление, инвестиции, занятость и т.д. Микроэкономические модели
описывают взаимодействие структурных и функциональных составляющих
экономики, либо поведение отдельной такой составляющей в рыночной среде.
Теоретические модели позволяют изучать общие свойства экономики и ее
характерных элементов дедукцией выводов из формальных предпосылок.
Прикладные модели дают возможность оценить параметры функционирования
конкретного экономического объекта и сформулировать рекомендации для
принятия практических решений. Равновесные модели описывают такие состояния
экономики, когда результирующая всех сил, стремящихся вывести ее из
данного состояния, равна нулю. В моделях статистических описывается
состояние экономического объекта в конкретный момент или период времени;
динамические модели включают взаимосвязи переменных во времени.
В экономической деятельности достаточно часто требуется не
только получить прогнозные оценки исследуемого показателя, но и
количественно охарактеризовать степень влияния на него других факторов, а
также возможные последствия их изменений в будущем. Для решения этой задачи
предназначен аппарат корреляционного и регрессионного анализа.
Результат опыта можно охарактеризовать качественно и
количественно. Любая качественная характеристика результата опыта
называется событием; любая количественная характеристика результата опыта
называется случайной величиной. Случайная величина – это такая величина,
которая в результате опыта может принимать различные значения, причем до
опыта не возможно предсказать, какое именно значение она примет.
Понятие зависимости (независимости) случайных величин является
одним из важнейших понятий в теории вероятностей. Так как наличие или
отсутствие зависимости между случайными величинами оказывает существенное
влияние на метод исследования. Степень тесноты изменяется в широких
пределах: от полной независимости случайных величин до очень сильной,
близкой по существу к функциональной зависимости.
Связь между зависимой переменной Y(i) и n независимыми факторами
можно охарактеризовать функцией регрессии Y(i) = f (X1, X2, ......, Xm),
которая показывает, каким будет в среднем значение переменной Y, если
переменные Х примут конкретное значение. Это обстоятельство позволяет
применять модель регрессии не только для анализа, но и для прогнозирования.
Множественная корреляция и регрессия определяют форму связи
переменных, выявляют тесноту их связи и устанавливают влияние отдельных
факторов.
Основными этапами построения регрессионной модели являются:
- построение системы показателей (факторов). Сбор и предварительный
анализ исходных данных.
- выбор вида модели и численная оценка ее параметров.
- проверка качества модели
- оценка влияния отдельных факторов на основе модели
- прогнозирование на основе модели регрессии.
Рассмотрим содержание этих этапов и их реализацию.
Построение системы показателей (факторов).
Информационной базой регрессионного анализа являются многомерные
временные ряды, каждый из которых отражает динамику одной переменной и
должен удовлетворять требованиям статистического аппарата исследования.
Для построения системы показателей используется корреляционный
анализ. Основная задача которого, состоит в выявлении связи между
случайными переменными путем точечной и интервальной оценки парных
(частных) коэффициентов корреляции и детерминации.
Выбор факторов, влияющих на исследуемый показатель, производится
прежде всего исходя из содержательного экономического анализа. Для
получения надежных оценок в модель не следует включать слишком много
факторов. Их число не должно превышать одной трети объема имеющихся
данных. Для определения наиболее существенных факторов могут быть
использованы коэффициенты линейной и множественной корреляции.
При проведении корреляционного анализа вся совокупность данных
рассматривается как множество переменных (факторов), каждая из которых
содержит n-наблюдений; хik – i- ое наблюдение k-ой переменной.
Связь между случайными величинами X и Y в генеральной
совокупности, имеющими совместное нормальное распределение, можно описать
коэффициентами корреляции:
( = М ((X – mx) (Y – my)) / (x (y , или ( = Кxy / (x (y
, ( 17 )
где ( - коэффициент корреляции (или парный коэффициент корреляции)
генеральной совокупности.
Оценкой коэффициента корреляции ( является выборочный парный
коэффициент корреляции:
N _ _
r = ( (xi – x ) (yi – y) / nSxSy,
( 18 )
i = 1
где Sx.Sy – оценки дисперсии;
x , y – наилучшие оценки математического ожидания.
Парный коэффициент корреляции является показателем тесноты связи
лишь в случае линейной зависимости между переменными и обладает следующими
основными свойствами:
Свойство 1. Коэффициент корреляции принимает значение в интервале (-1,+1),
или (xy < 1. Значение коэффициентов парной корреляции лежит в
интервале от -1 до +1. Его положительное значение свидетельствует о прямой
связи, отрицательное - об обратной, то есть когда растет одна переменная,
другая уменьшается. Чем ближе его значение к 1 , тем теснее связь.
Коэффициент множественной корреляции, который принимает значение от 0
до 1, более универсальный: чем ближе его значение к 1, тем в большей
степени учтены факторы, влияющие на зависимую переменную, тем более точной
может быть модель.
Свойство 2. Коэффициент корреляции не зависит от выбора начала отсчета и
единицы измерения, то есть
р ((1X + ( (2 Y + () = ( xy ,
( 19 )
где (1, (2 , ( - постоянные величины, причем (1 > 0 , (2 > 0.
Случайные величины X,Y можно уменьшать (увеличивать) в ( раз, а также
вычитать или прибавлять к значениям X и Y одно и тоже число ( - это не
приведет к изменению коэффициента корреляции (.
Свойство 3. При ( = +-1 корреляционная связь представляется линейной
функциональной зависимостью. При этом линии регрессии y по x и x по y
совпадают.
Свойство 4. При ( = 0 линейная корреляционная связь отсутствует и
параллельны осям координат.
Рассмотренные показатели во многих случаях не дают однозначного
ответа на вопрос о наборе факторов. Поэтому в практической работе с
использованием ПЭВМ чаще осуществляется отбор факторов непосредственно в
ходе построения модели методом пошаговой регрессии. Суть метода состоит в
последовательном включении факторов. На первом шаге строится однофакторная
модель с фактором , имеющим максимальный коэффициент парной корреляции с
результативным признаком. Для каждой переменной регрессии , за исключением
тех, которые уже включены в модель , рассчитывается величина С(j) , равная
относительному уменьшению суммы квадратов зависимой переменной при
включении фактора в модель. Эта величина интерпретируется как доля
оставшейся дисперсии независимой переменной, которую объясняет переменная
j. Пусть на очередном шаге k номер переменной, имеющей максимальное
значение, соответствует j. Если Сk меньше заранее заданной константы,
характеризующей уровень отбора, то построение модели прекращается. В
противном случае k-я переменная вводится в модель.
После того, как с помощью корреляционного анализа выявлены
статистические значимые связи между переменными и оценена степень их
тесноты, переходят к математическому описанию
Регрессионной моделью системы взаимосвязанных признаков является
такое уравнение регрессии, которое включает основные факторы, влияющие на
вариацию результативного признака, обладает высоким (не ниже 0,5)
коэффициентом детерминации и коэффициентом регрессии, интерпретируемыми в
соответствии с теоретическим знанием о природе связей в изучаемой системе.
Основной задачей линейного регрессионного анализа является
установление формы связи между переменными, а так же выбор наиболее
информативных аргументов Xj; оценивание неизвестных значений параметров aj
уравнения связи и анализ его точности.
В регрессионном анализе вид уравнения выбирается исходя из
физической сущности изучаемого явления и результатов наблюдений.
Простейший случай регрессионного анализа для линейной зависимости между
зависимой переменной Y и независимой переменной Х выражается следующей
зависимостью:
Y = a0 + a1X + ( ,
( 20 )
где a0 – постоянная величина (или свободный член уравнения).
a1 – коэффициент регрессии, определяющий наклон линии, вдоль которой
рассеяны данные наблюдений. Это показатель, характеризующий
процентное изменение переменой Y, при изменении
значения X на единицу. Если a1 > 0 –переменные X и Y
положительно коррелированны, если a2 < 0 – отрицательно
коррелированны;
( - независимая ((М ((i (j ) = 0, при i ( j ) нормально
распределенная случайная величина – остаток (помеха) с нулевым
математическим ожиданием (m( = 0) и постоянной дисперсией (
D( = (2 ). Она отражает тот факт, что изменение
Y будет недостаточно описываться изменением X –
присутствуют другие факторы, неучтенные в данной модели.
Параметры модели оцениваются по методу наименьших квадратов,
который дает наилучшие (эффективные) линейные несмещенные оценки.
Если записать выражение для определения коэффициентов регрессии
в матричной форме, то становится очевидным, что решение задачи возможно
лишь тогда, когда столбцы и строки матрицы исходных данных линейно
независимы. Для экономических показателей это условие выполняется не
всегда. Линейная или близкая к ней связь между факторами называется
коллиниарностью и приводит к линейной зависимости нормальных уравнений, что
делает вычисление параметров либо невозможным, либо затрудняет
содержательную интерпретацию параметров модели. Чтобы избавиться от
коллиниарности, в модель включают лишь один из линейно связанных между
собой факторов, причем тот, который в большей степени связан с зависимой
переменной.
Проверка качества модели
Качество модели оценивается стандартным для математических моделей
образом: по адекватности и точности. Расчетные значения получаются путем
подстановки в модель фактических значений всех включенных факторов.
Кроме рассмотренных выше характеристик, целесообразно
использовать корреляционное отношение (индекс корреляции), а также
характеристики существенности модели в целом и ее коэффициентов.
В качестве характеристики тесноты связи применяется индекс корреляции
(Iyx ) переменных Y по X.
Iyx = 1- (((2 / (y2) ,
( 21 )
где ((2 – это дисперсия параметра Х относительно функции регрессии, то
есть остаточная дисперсия, которая характеризует
влияние на Y прочих неучтенных факторов в
модели;
(y2 – полная дисперсия, она измеряет влияние параметра X и Y.
Из этого следует, что 0 ( Iyx ( 1. При этом Iyx = 0 означает
полное отсутствие корреляционной связи между зависимой переменной Y и
объясняющей переменной Х. В то же время максимальное значение индекса
корреляции (Iyx = 1) соответствует наличию чисто функциональной связи
между переменными X и Y и, следовательно, возможность детерминированного
восстановления значений зависимой переменной Y по соответствующим значениям
Страницы: 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13
|