Page 119 - MAKРОЭКОНОМИЧЕСКИЙ АНАЛИЗ (УЧЕБНИК)
P. 119

к простой и хорошо изученной задаче оптимизации. Во-вторых,
            квадраты штрафуют большие отклонения сильнее, чем малые,
            и при этом обеспечивают непрерывность и гладкость критерия.

            Результатом минимизации этой суммы квадратов является си-
            стема  нормальных  уравнений,  которая,  при  условии,  что  ма-
            трица  регрессоров  имеет  полный  столбцовый  ранг,  допускает
            однозначное решение в терминах матриц или, при небольшом
            числе регрессоров, может быть решена аналитически. В матрич-
            ной форме задачу можно записать следующим образом. Пусть Y
            – вектор наблюдений размерности n×1, X – матрица регрессоров
            размера n×(K+1), где первый столбец обычно заполнен едини-
            цами для оценки свободного члена β_0, а последующие столбцы

            соответствуют переменным x_i1, x_i2 и так далее. Тогда модель
            можно записать как Y = Xβ + ε, где β – вектор параметров размер-
            ности (K+1) ×1, ε – вектор ошибок размерности n×1. Критерий
            наименьших квадратов заключается в минимизации S(β) = (Y -
            Xβ)›(Y - Xβ), где штрих означает транспонирование. Дифферен-
            цируя этот критерий по β и приравнивая производную к нулю,
            мы  получаем  так  называемые  нормальные  уравнения:  X›Xβ =

            X›Y. Если матрица X›X невырождена (то есть обратима), решение
            дается формулой β̂ = (X›X)^{-1} X›Y. Вектор β̂ и есть оценка пара-
            метров линейной регрессии по методу наименьших квадратов.
            Она имеет ряд важных свойств. Одно из ключевых свойств – нес-
            мещенность.  Если  ошибки  ε_i  имеют  нулевое  математическое
            ожидание и некоррелированы с регрессорами, то математиче-
            ское ожидание β̂ равно истинному β, то есть оценка несмещен-
            ная . Другое важнейшее свойство – состоятельность: при увели-
                 63
            чении числа наблюдений n, оценки β̂ сходятся по вероятности к

            истинным значениям параметров. Кроме того, при выполнении
            классических предположений гауссовской линейной регрессии,
            которые включают нормальность ошибок, гомоскедастичность и
            отсутствие автокорреляции остатков, оценщики МНК являются

            63    Greene, W. H. (2022). “Econometric Analysis”. 8 th Edition. Pearson.This advanced textbook
                 covers theoretical foundations and practical applications of econometrics, suitable for in-
                 depth study and research purposes.

            118
   114   115   116   117   118   119   120   121   122   123   124