Система В: базисные индексы цен с переменными весами
Система Г: базисные индексы цен с постоянными весами
Индексы системы Б по своей природе мультипликативные, т.е. последовательное произведение этих индексов к сводному индексу цен за весь рассматриваемый период(система Г)
Индексы постоянного и переменного состава
Индексы постоянного и переменного состава используют при анализе динамики средних уровней. Если товар реализуется в нескольких точках, мы можем сравнить средний объем товарооборота или сравнить средние цены за разные периоды с учетом структуры продаж этих периодов
Первая часть формулы позволяет ответить на вопрос: «Какой была средняя цена в текущем периоде, если бы цены остались базисными?». Вторая часть формулы отражает фактическую среднюю цену. Индекс структуры показывает, в какой степени изменения средней величины индексируемого показателя произошло за счет изменения структуры состава совокупности.
Последним в данной системе является индекс цен фиксированного состава, который не учитывает влияния структуры, фиксируя веса, как правило, в текущем периоде.
Взаимосвязь индексов этой группы
Социально-экономические явления представляют собой результат воздействия большого числа причин (факторов)
Признаки делят на:
факторные
результативные
Связь м/у факторными и результативными признаками может быть:
функциональной, при которой каждому значению факторного признака соответствует одно значение результативного признака
стохастической, когда причинная зависимость проявляется не в каждом отдельном случае, а в общем среднем при большом числе наблюдений. Частным случаем является корреляционная связь при которой изменение среднего значения результативного признака обусловлено изменением факторных признаков.
Связи м/у явлениями и их признаками классифицируются по степени тесноты, направлению и аналитическому выражению
По степени тесноты различают количественные оценки тесноты связи
Величина коэффициента корреляции | Характер связи |
До +/- 0,3 | Практически отсутствует |
+/- 0,3 – +/-0,5 | Слабая |
+/- 0,5 – +/-0,7 | Умеренная |
+/-0,7 – +/-1 | сильная |
По направлению связь бывает:
прямая (+)
обратная (-)
По аналитическому выражению:
Прямолинейная (линейная)
Нелинейная (криволинейная)
- парабола - гиперболаДля выявления количества связей, ее характера и направления в статистике используют следующие методы:
1. Метод приведения параллельных данных
x | 1 | 2 | 3 | 4 | 5 |
y | -1 | -2 | -3 | -4 | -5 |
2. метод аналитических группировок
3. Графический метод
4. Метод корреляции
Корреляция – статистическая зависимость м/у случайными величинами не имеющая строгофункционального характера, при котором изменение одного из случайных величин приводит к изменению математического ожидания другой.
В статистике различают следующие варианты зависимости:
- Парная корреляция – связь м/у двумя признаками (результативным и факторным, или двумя факторными)
- Частная корреляция – зависимость м/у результативным и одним факторным признаком, при фиксированном значении других факторных признаков
- Множественная корреляция зависимость результативного и 2-х и более факторных признаков включенных в исследование
Корреляционный анализ имеет задачи:
1. отыскание математической формулы, которая выражала бы зависимость y от x
2. измерение тесноты такой зависимости
Решение 1 задачи осуществляется в регрессионном анализе и нахождении уравнения регрессии (уравнение связи)
Параметры для всех уравнений связи определяют из системы нормальных уравнений, отвечающих требованию метода наименьших квадратов
Система нормальных уравнений при линейной зависимости
а0 – параметр, выражающий суммарное влияние всех неучтенных факторов
а1 – коэффициент выражающий усредненное влияние фактора х на результат у
Если связь выражена параболой второго порядка
, то система нормальных уравнений для отыскания параметров а0, а1 и а2 выражается следующим образомИзмерение тесноты связи для всех форм связи может быть решена с помощью исчисления теоретического корреляционного отношения (ŋ)
Где
- факторная дисперсия - дисперсия фактического значения признакаd - средний квадрат отклонений расчетных значений результативного признака от средней фактической результативного признака. Т.к. d2 отражает вариацию в ряду
только за счет вариации фактора х, а дисперсия s2 отражает вариацию у за счет факторов то их отношение, именуемое теоретическим коэффициентом детерминации, показывает какой удельный вес в общей дисперсии ряда у занимает дисперсия, вызываемая вариацией фактора х. Квадратный корень из отношения этих дисперсий дает нам теоретическое корреляционное отношение.Если d2=s2 то это означает, что роль других факторов в вариации сведена на нет. И отношение
, означает полную зависимость вариации у от х.Если d2=0, значит вариация х никак не влияет на вариацию у и ŋ=0
Т.о. корреляционное отношение может быть от 0 до 1.
В случае линейной зависимости
- линейный коэффициент корреляцииВ случае небольшого числа наблюдений n очень важно оценить надежность (значимость) коэффициента корреляции. Для этого определяют среднюю ошибку коэффициента корреляции по следующей формуле:
Где n-2 – число степеней свободы при линейной зависимости, затем находят отношение коэффициента корреляции к его средней ошибке
, которое сравнивается с табличным значением t-критерия Стьюдента. Если t фактического (расчетное) больше t табличного, то линейный коэффициент корреляции r считается значимым, а связь м/у х и у реальной.Для измерения тесноты зависимости используют также ранговые коэффициенты корреляции (коэффициент корреляции рангов). Коррелируются не сами значения показателей х и у, а их ранги, т.е. номера их мест занимаемых в каждом ряду значений по возрастанию или убыванию. Обозначаются ранги R или N.
Коэффициент корреляции рангов Спирмена
Где:
- разность рангов каждой пары значений х и уN – число наблюдений
Коэффициент корреляции Кендэна