Метод аналитических группировок. Стохастическая связь будет проявляться отчетливее, если применить для ее изучения аналитические группировки. Чтобы выявить зависимость с помощью этого метода, нужно произвести группировку единиц совокупности по факторному признаку и для каждой группы вычислить среднее или относительное значение результативного признака. Сопоставляя затем изменения результативного признака по мере изменения факторного, можно выявить направление, характер и тесноту связи между ними с помощью эмпирического корреляционного отношения. Однако метод группировок не позволяет определить форму (аналитическое выражение) влияния факторных признаков на результативный.
3. Статистическое моделирование связи методом корреляционного и регрессионного анализа
Для социально-экономических явлений характерно, что наряду с существенными факторами, формирующими уровень результативного признака, на него оказывают воздействие многие другие неучтенные и случайные факторы. Это свидетельствует о том, что взаимосвязи явлений, которые изучает статистика, носят корреляционный характер и аналитически выражаются функцией вида у х= f (х).
Задачи корреляционного анализа сводятся к измерению тесноты известной связи между двумя признаками (при парной связи) и между результативным и множеством факторных признаков (при многофакторной связи), определению неизвестных причинных связей (причинный характер которых должен быть выяснен с помощью теоретического анализа) и оценке факторов, оказывающих наибольшее влияние на результативный признак.
Корреляция – это статистическая зависимость между случайными величинами, не имеющими строго функционального характера, при которой изменение одной из случайных величин приводит к изменению математического ожидания другой.
В статистике различаются следующие варианты зависимостей:
- Парная корреляция – связь между двумя признаками (результативным и факторным или двумя факторными);
- Частная корреляция – зависимость между результативным и одним факторным признаками при фиксированном значении других факторных признаков;
- Множественная корреляция – зависимость результативного и двух или более факторных признаков, включенных в исследование.
Теснота связи количественно выражается величиной коэффициента корреляции. Коэффициенты корреляции, представляя количественную характеристику тесноты связи между признаками, дают возможность определить «полезность» факторных признаков при построении уравнении множественной регрессии. Величина коэффициента корреляции служит также оценкой соответствия уравнения регрессии выявленным причинно-следственным связям.
Первоначально исследовании корреляции проводились в биологии, а позднее распространились и на другие области, в том числе на социально-экономическую. Одновременно с корреляцией начала использоваться и регрессия. Корреляция и регрессия тесно связаны между собой: корреляция оценивает силу (тесноту) статистической связи, регрессия исследует ее форму. Та и другая служит для установления соотношения между явлениями, для определения наличия или отсутствия связи.
Корреляционный и регрессионный анализ как общее понятие включает в себя измерение тесноты, направления связи и установление аналитического выражения (формы) связи (регрессионный анализ).
Задачи регрессионного анализа – выбор типа модели (формы связи), установление степени влияния независимых переменных на зависимую и определение расчетных значений зависимой переменной (функции регрессии).
Регрессия может быть однофакторной (парной) и многофакторной (множественной).
По форме зависимости различают:
- Линейную регрессию, которая выражается уравнением прямой (линейной функцией) вида:
У х=а 0+а 1х;
- Нелинейную регрессию, которая выражается уравнениями вида:
У х=а 0+а 1х+а 2х 2 – парабола;
У х=а 0+а 1/х – гипербола и т.д.
По направлению связи различают:
- Прямую регрессию (положительную), возникающую при условии, если с увеличением или уменьшением независимой величины значения зависимой также соответственно увеличиваются или уменьшаются.
- Обратную (отрицательную) регрессию, появляющуюся при условии, что с увеличением или уменьшением независимой величины зависимая соответственно уменьшается или увеличивается.
Решение всех названных задач приводит к необходимости комплексного использования этих методов.
Наиболее разработанной в теории статистики является методология так называемой парной корреляции, рассматривающая влияние вариации факторного признака х на результативный признак у и представляющая собой однофакторный корреляционный и регрессионный анализ. Овладение теорией и практикой построения и анализа двухмерной модели корреляционного и регрессионного анализа представляет собой исходную основу для изучения многофакторных стохастических связей.
Важнейшим этапом построения регрессионной модели (уравнения регрессии) является установление в анализе исходной информации математической функции. Сложность заключается в том, что из множества функций необходимо найти такую, которая лучше других выражает реально существующие связи между анализируемыми признаками. Выбор типа функции может опираться на теоретические знания об изучаемом явлении, или осуществляться эмпирически – перебором и оценкой функций разных типов и т.п.
Как известно, явления общественной жизни складываются под воздействием не одного, а целого ряда факторов, т.е. эти явления многофакторны. Между факторами существуют сложные взаимосвязи, поэтому их влияние комплексное и его нельзя рассматривать как простую сумму изолированных влияний.
Многофакторный корреляционный и регрессионный анализ может быть использован в экономико-статистических исследованиях:
- Для приближенной оценки фактического и заданного уровней;
- В качестве укрупненного норматива (для этого достаточно в уравнение регрессии подставить вместо фактических значений факторов их средние значения);
- Для выявления резервов производства;
- Для проведения межзаводского сравнительного анализа и выявления на его основе скрытых возможностей предприятий;
- Для краткосрочного прогнозирования развития производства и др.
Представление связи линейной функцией там, где фактически имеются нелинейные соотношения, вызовет ошибки аппроксимации и в конечном счете упрощенные или даже ложные представления о сущности изучаемого явления.
4. Непараметрические методы
Важной задачей является разработка методики статистической оценки социальных явлений, которая осложняется тем, что многие из них не имеют количественной оценки, а изложенные выше методы применимы только к количественным признакам, так как требуют вычисления таких параметров распределения, как средние величины, дисперсии, отклонения. Потому они и называются параметрическими.
Вместе с тем в статистике применяются также непараметрические методы, с помощью которых устанавливается связь между качественными (атрибутивными признаками). Сфера их применения шире, чем параметрических, поскольку не требуется соблюдения условия нормальности распределения зависимой переменной, однако при этом снижается глубина исследования связей. При изучении зависимости между качественными признаками не ставится задача представления ее уравнением. Здесь речь идет только об установлении наличия связи и измерении ее тесноты.
В практике статистических исследований приходится иногда анализировать связи между альтернативными признаками, представленными только группами с противоположными (взаимоисключающими) характеристиками. Тесноту связи в этом случае можно оценить, вычислив коэффициенты ассоциации или контингенции.
Для расчета коэффициента ассоциации или контингенции строится четырехклеточная корреляционная таблица, которая носит название таблицы «четырех полей» и имеет следующий вид:
a | b | a+b |
c | d | c+d |
a+c | b+d | a+b+c+d |
Применительно к таблице «четырех полей»с частотами a , b , c и d коэффициент взаимосвязей явлений определяются по формулам:
коэффициент ассоциации
k a=( ad - bc ) / ( ad + bc );
коэффициент контингенции
k k=( ad - bc ) / √( a + b )( c + d )( a + c )( b + d ).
Коэффициент контингенции всегда меньше коэффициента ассоциации. Коэффициент ассоциации изменяется от -1 до +1; чем ближе к +1 или -1, тем сильнее связаны между собой изучаемые признаки.
Если k k не менее 0,3, или k aне менее 0,5, то это свидетельствует о наличии связи между качественными признаками.
Заключение
Изучив данную тему, в заключении можно сделать следующие выводы:
1. Исследование объективно существующих связей между явлениями – важнейшая задача общей теории статистики. Формы проявления взаимосвязей явлений и процессов весьма разнообразны. Из них в самом общем виде выделяют функциональную (полную) и стохастическую (неполную) связи, корреляционная связь является частным случаем стохастической связи. По направлению связи бывают прямыми (положительными) и обратными (отрицательными). По своей аналитической форме связи могут быть линейными и нелинейными. По количеству взаимодействующих факторов различают связи однофакторные (их обычно называют парными) и многофакторные. По силе различаются слабые и сильные связи.
2. Для исследования стохастических связей широко используется метод сопоставления двух параллельных прямых, метод аналитических группировок, графический метод, корреляционный анализ, регрессионный анализ и некоторые непараметрические методы.
3. Знание характера и силы связей позволяет управлять социально-экономическими процессами и предсказать их развитие, что очень важно в условиях развивающейся рыночной экономики.
Литература
1. Воронин В.Ф., Жильцова Ю.В. Статистика: Учеб. пособие для вузов. – М.: Экономистъ, 2004. – 301 с.
2. Голуб Л.А. Социально-экономическая статистика: Учеб. пособие. – М.: Владос, 2001. – 272 с.
3. Гусаров В.М. Статистика: Учеб. пособие для вузов. – М.: ЮНИТИ-ДАНА, 2001. – 463 с.
4. Гусаров В.М. Теория статистики: Учебн. пособие для вузов. – М.: Аудит, ЮНИТИ, 1998. – 247 с.
5. Елисеева И.И., Юзбашев М.М. Общая теория статистики: Учеб для вузов. – М.: Финансы и статистика, 1995.
6. Статистика: Курс лекций для вузов / под ред. В.Г. Ионина. – 2-е изд., перераб. и доп. - М.: ИНФРА-М, 2001. – 384 с.
7. Теория статистики: Учебник /под ред. Р.А. Шмойловой. – 4-е изд., перераб. и доп. – М.: Финансы и статистика, 2004. – 656 с.: ил.
http://www.export.by/?act=s_docs&mode=view&id=9513&type=by_class&indclass=42103&doc=64