Рассмотрим линейную модель множественной регрессии
Y=а+bx1+b2x2+....+ε,
удовлетворяющая условиям Гаусса-Маркова, называется классической нормальной линейной моделью множественной регрессии, в предположении, что ε — нормально распределенный случайный вектор.
Классический подход к оцениванию параметров линейной модели множественной регрессии основан на методе наименьших квадратов (МНК). МНК позволяет получить такие оценки параметров, при которых сумма квадратов отклонений фактических значений результативного признака от расчетных минимальна:
В нормальную линейную модель множественной регрессии должны входить факторные переменные, удовлетворяющие следующим условиям:
1) данные переменные должны быть количественно измеримыми;
2) каждая факторная переменная должна достаточно тесно коррелировать с результативной переменной;
3) факторные переменные не должны сильно коррелировать друг с другом или находиться в строгой функциональной зависимости.
При построении модели множественной линейной регрессии учитываются следующие пять условий:
1. величины хi1,хi2, ...,хim - неслучайные и независимые переменные;
2. математическое ожидание случайной ошибки уравнения регрессии
равно нулю во всех наблюдениях: М (ε) = 0, i= 1,m;
3. дисперсия случайной ошибки уравнения регрессии является постоянной для всех наблюдений: D(ε) = σ2 = const;
4. случайные ошибки модели регрессии не коррелируют между собой (ковариация случайных ошибок любых двух разных наблюдений равна нулю): соv(εi,εj.) = 0, i≠j;
5. случайная ошибка модели регрессии - случайная величина, подчиняющаяся нормальному закону распределения с нулевым математическим ожиданием и дисперсией σ2.