Вопросы — Инструменты анализа данных в экономике и финансах

Показывать
\global\def\at#1#2{\left. #1 \right\rvert_{#2}} \global\def\abs#1{\left\lvert #1 \right\rvert} \global\def\norm#1{\left\lVert #1 \right\rVert} \global\def\limto#1{\underset{#1}{\longrightarrow}} \global\def\dp#1#2{#1 \cdot #2\,} \global\def\vp#1#2{#1 \times #2\,} \global\def\dv#1#2{\frac{d #1}{d #2}} \global\def\pd#1#2{\frac{\partial #1}{\partial #2}} \global\def\pdv2#1#2{\frac{\partial^2 #1}{\partial #2^2}} \global\def\ppdv#1#2#3{\frac{\partial^2 #1}{\partial #2 \partial #3}} \global\def\paren#1{\left( #1 \right)} \global\def\mbox#1{\text{#1}} \global\def\div{\text{div}\,} \global\def\dsum{\displaystyle\sum\,} \global\def\grad{\text{grad}\,} \global\def\rot{\text{rot}\,} \global\def\bvec#1{\mathbf{#1}} \global\def\vb#1{\textbf{#1}} \global\def\op#1{\mathrm{#1}\,} \global\def\proj{\mathrm{proj}} \global\def\bydef{\mathrm{def}} \global\def\const{\text{const}\,} \global\def\res{\text{res}\,} \global\def\Res{\text{Res}\,} \global\def\Re{\text{Re}\,} \global\def\Im{\text{Im}\,} \global\def\ch{\text{ch}\,} \global\def\sh{\text{sh}\,} \global\def\tg{\mathrm{tg}\,} \global\def\ctg{\mathrm{ctg}\,} \global\def\argtg{\text{argtg}\,} \global\def\cov{\operatorname{cov}} \global\def\var{\operatorname{var}} \global\def\corr{\operatorname{corr}} \global\def\se{\operatorname{se}} \global\def\logit{\operatorname{logit}}
  1. Определение: дисперсия
    Дисперсией случайной величины xx называют величину Dx=E[(xEx)2]=Ex2(Ex)2. D x = E \left[ {(x - E x)}^2 \right] = E x^2 - {(E x)}^2.
  2. Определение: стандартное отклонение
    Стандартным отклонением случайной величины xx называют величину σx=Dx. \sigma_x = \sqrt{D x}.
  3. Определение: ковариация
    Ковариация случайных величин xx и yy: cov(x,y)=E[(xEx)(yEy)]=1ni=1n[(xix)(yiy)]. \cov(x,y) = E \left[ (x - Ex) (y - Ey) \right] = \frac{1}{n} \sum\limits_{i=1}^{n} \left[ (x_i - \overline x) (y_i - \overline y) \right].
    Ковариация может быть записана как cov(x,y)=E[xy]ExEy. \cov(x,y) = E[xy] - Ex Ey.
  4. Определение: выборочная ковариация
    Выборочной ковариацией случайных величин xx и yy называют величину cov^(x,y)=1ni=1n(xix)(yiy). \widehat \cov(x,y) = \frac{1}{n} \sum\limits_{i=1}^{n} (x_i - \overline x) (y_i - \overline y).
    Выборочная ковариация может быть вычислена как cov^(x,y)=xyxy. \widehat \cov(x,y) = \overline{xy} - \overline{x} \cdot \overline{y}.
  5. Свойства выборочной ковариации
    Пусть bb — некоторая константа, а x,y,zx,y,z — случайные величины. Тогда справедливы свойства:
    1. cov^(x,b)=0\widehat \cov(x,b) = 0;
    2. cov^(x,by)=bcov^(x,y)\widehat \cov(x, by) = b \cdot \widehat \cov(x,y);
    3. cov^(x,y+b)=cov^(x,y)\widehat \cov(x, y + b) = \widehat \cov(x,y);
    4. cov^(x,y+z)=cov^(x,y)+cov^(x,z)\widehat \cov(x, y + z) = \widehat \cov(x,y) + \widehat \cov(x,z).
  6. Определение: выборочная дисперсия
    Выборочной дисперсией случайной величины xx называют величину var^(x)=1ni=1n(xix)2. \widehat \var(x) = \frac{1}{n} \sum\limits_{i=1}^{n} {\left( x_i - \overline x \right)}^2.
    Выборочная дисперсия может быть вычислена как var^(x)=x2(x)2. \widehat \var(x) = \overline{x^2} - (\overline x)^2.
  7. Свойства выборочной дисперсии
    Пусть bb — некоторая константа, а x,yx,y — случайные величины. Тогда справедливы свойства:
    1. var^(b)=0\widehat \var(b) = 0;
    2. var^(bx)=b2var^(x)\widehat \var(bx) = b^2 \cdot \widehat \var(x);
    3. var^(x+b)=var^(x)\widehat \var(x + b) = \widehat \var(x);
    4. var^(x+y)=var^(x)+var^(y)+2cov^(x,y)\widehat \var(x + y) = \widehat \var(x) + \widehat \var(y) + 2 \widehat \cov(x,y).
  8. Определение: выборочный коэффициент корреляции
    Выборочным коэффициентом корреляции случайных величин x,yx,y называют величину corr^(x,y)=cov^(x,y)var^(x)var^(y). \widehat \corr(x,y) = \frac{\widehat \cov(x, y)}{\sqrt{\widehat \var(x) \widehat \var(y)}}.
  9. Каковы цели регрессионного анализа?
    1. Оценка влияния независимых переменных на зависимую.
    2. Предсказание значений зависимой переменной на основе новых данных.
    3. Выявление закономерностей и трендов.
    4. Проверка гипотез.
  10. Классификация данных с точки зрения структуры
    • Пространственные данные (cross section data): данные, собранные о множестве объектов за один момент времени.
      Данные о ценах однокомнатных квартир в Москве в ноябре 2024 года.
    • Временные ряды (time series): данные об одном объекте, собранные в течение нескольких последовательных моментов времени.
      Ежедневные данные о курсе доллара, собранные за год.
    • Панельные данные (panel data): данные о нескольких объектах, собранные в течение нескольких последовательных моментов времени.
      Ежегодные данные об уровне инфляции в 50 развивающихся странах, собранные за 10 лет.
  11. Определение: парная линейная регрессия
    Парная линейная регрессия задаётся формулой yi=β1+β2xi+εi,i=1,n, y_i = \beta_1 + \beta_2 x_i + \varepsilon_i, \qquad i = \overline{1,n}, где
    • yiy_i — зависимая (объясняемая) переменная;
    • xix_i — независимая (объясняющая) переменная;
    • β1\beta_1 — свободный член, показывающий значение yy, когда x=0x = 0;
    • β2\beta_2 — коэффициент регрессии, который показывает, насколько изменится yy при изменении xx на одну единицу;
    • εi\varepsilon_i — случайная ошибка, учитывающая влияние других, неучтённых переменных;
    • nn — количество наблюдений.

    На практике точные значения коэффициентов регрессии β1\beta_1 и β2\beta_2 неизвестны, но можно получить их оценки β^1,β^2\widehat \beta_1, \widehat \beta_2 на основе собранных статистических данных.

    Полученные оценки β^1,β^2\widehat \beta_1, \widehat \beta_2 являются случайными величинами.
  12. Как ищутся оценки коэффициентов регрессии классической линейной модели парной регрессии?
    Оценки β^1,β^2\widehat \beta_1, \widehat \beta_2 ищутся методом неопределённых коэффициентов (МНК).
  13. Каковы предпосылки классической линейной модели парной регрессии?
    1. Модель линейна по параметрам и корректно специфицирована: yi=β1+β2xi+εi,i=1,n. y_i = \beta_1 + \beta_2 x_i + \varepsilon_i, \qquad i = \overline{1,n}.
    2. x1,,xnx_1, \dots, x_n — детерминированные величины, не все равные друг другу.
    3. Математическое ожидание случайных ошибок равно нулю: Eεi=0. E \varepsilon_i = 0.
    4. Дисперсия случайной ошибки одинакова для всех наблюдений: Dεi=σ2=const. D \varepsilon_i = \sigma^2 = \const. Это значит, что случайные ошибки гомоскедастичны.
    5. Случайные ошибки, относящиеся к разным наблюдениям, взаимно независимы: cov(εi,εj)=0. \cov(\varepsilon_i, \varepsilon_j) = 0.
    6. Случайные ошибки имеют нормальное распределение: εiN(0,σ2). \varepsilon_i \sim N(0, \sigma^2).
  14. Определение: гомоскедастичность
    Говорят, что случайные ошибки εi\varepsilon_i гомоскедастичны, если их дисперсия постоянна: Dεi=σ2=const. D \varepsilon_i = \sigma^2 = \const.
  15. Определение: гетероскедастичность
    Говорят, что случайные ошибки εi\varepsilon_i гомоскедастичны, если их дисперсия не является постоянной: Dεi=σi2const. D \varepsilon_i = \sigma_i^2 \neq \const.
  16. Определение: несмещённая оценка
    Оценка θ^\widehat \theta параметра θ\theta называется несмещённой, если её мат. ожидание совпадает с точной оценкой: Eθ^=θ. E \widehat \theta = \theta.
  17. Определение: эффективная оценка
    Оценка θ^\widehat \theta параметра θ\theta называется эффективной в некотором классе оценок, если её дисперсия является минимальной среди всех оценок этого класса.
    Можно считать, что эффективная оценка является «наиболее точной».
  18. Теорема Гаусса‐Маркова
    (Гаусса‐Маркова).
    Если выполнены предпосылки 1‐5 классической линейной модели парной регрессии:
    1. модель линейна по параметрам и корректно специфицирована: yi=β1+β2xi+εi,i=1,n; y_i = \beta_1 + \beta_2 x_i + \varepsilon_i, \qquad i = \overline{1,n};
    2. x1,,xnx_1, \dots, x_n — детерминированные величины, не все равные друг другу;
    3. математическое ожидание случайных ошибок равно нулю: Eεi=0; E \varepsilon_i = 0;
    4. дисперсия случайной ошибки одинакова для всех наблюдений: Dεi=σ2; D \varepsilon_i = \sigma^2;
    5. случайные ошибки, относящиеся к разным наблюдениям, взаимно независимы: cov(εi,εj)=0; \cov(\varepsilon_i, \varepsilon_j) = 0;
    то МНК‐оценки коэффициентов β^1,β^2\widehat \beta_1, \widehat \beta_2 будут:
    • несмещёнными;
    • эффективными в классе всех несмещённых и линейных по yy оценок.
    Линейность по yy означает, что рассматриваются все оценки, которые могут быть представлены в виде линейной комбинации значений объясняемой переменной: i=1nciyi. \sum\limits_{i=1}^{n} c_i y_i.
  19. Определение: множественная линейная регрессия
    Множественная линейная регрессия задаётся формулой yi=β1+β2xi(2)++βkxi(k)+εi,i=1,n, y_i = \beta_1 + \beta_2 x_i^{(2)} + \dots + \beta_k x_i^{(k)} + \varepsilon_i, \qquad i = \overline{1,n}, где
    • yiy_i — зависимая переменная;
    • xi(2),,xi(k)x_i^{(2)}, \dots, x_i^{(k)} — независимые переменные (регрессоры);
    • β1\beta_1 — свободный член;
    • β2,,βk\beta_2, \dots, \beta_k — коэффициенты регрессии;
    • εi\varepsilon_i — случайная ошибка, учитывающая влияние других, неучтённых переменных;
    • kk — число коэффициентов (или регрессоров) модели;
    • nn — количество наблюдений.
    Модель удобно представлять в виде: yi=β1xi(1)+β2xi(2)++βkxi(k)+εi,i=1,n, y_i = \beta_1 x_i^{(1)} + \beta_2 x_i^{(2)} + \dots + \beta_k x_i^{(k)} + \varepsilon_i, \qquad i = \overline{1,n}, где xi(1)1,i=1,nx_i^{(1)} \equiv 1, \quad i = \overline{1,n}.
  20. Каковы предпосылки классической линейной модели множественной регрессии?
    1. Модель линейна по параметрам и корректно специфицирована: yi=β1+β2xi(2)++βkxi(k)+εi,i=1,n. y_i = \beta_1 + \beta_2 x_i^{(2)} + \dots + \beta_k x_i^{(k)} + \varepsilon_i, \qquad i = \overline{1,n}.
    2. xim,m=2,k,  i=1,nx_i^{m}, \quad m = \overline{2,k}, \; i = \overline{1,n} — детерминированные линейно независимые величины.
    3. Математическое ожидание случайных ошибок равно нулю: Eεi=0. E \varepsilon_i = 0.
    4. Дисперсия случайной ошибки одинакова для всех наблюдений: Dεi=σ2=const. D \varepsilon_i = \sigma^2 = \const. Это значит, что случайные ошибки гомоскедастичны.
    5. Случайные ошибки, относящиеся к разным наблюдениям, взаимно независимы: cov(εi,εj)=0. \cov(\varepsilon_i, \varepsilon_j) = 0.
    6. Случайные ошибки имеют нормальное распределение: εiN(0,σ2). \varepsilon_i \sim N(0, \sigma^2).
  21. Метод наименьших квадратов
    МНК — такой способ проведения регрессионной линии, что сумма квадратов отклонений отдельных значений зависимой переменной от неё была минимальной.

    Пусть yiy_i — координата точки по оси yy, а y^i\widehat y_i — предсказанное значение. Тогда ei=yiy^i, e_i = y_i - \widehat y_i, где eie_i — расстояние от yy до линии регрессии (остаток регрессии).

    Суммируя квадраты остатков, получаем: RSS=i=1n(yiy^i)2. RSS = \sum\limits_{i=1}^{n} {(y_i - \widehat y_i)}^2.

    RSS (Residual Sum of Squares) — сумма квадратов разниц между фактическими и предсказанными линейной регрессией значениями зависимой переменной.
    Требуется минимизировать RSS: RSS=i=1n(yiy^i)2min. RSS = \sum\limits_{i=1}^{n} {(y_i - \widehat y_i)}^2 \to \min.
    Учитывая, что y^i=axi+b\widehat y_i = a x_i + b, найдём частные производные: RSSa=(i=1n[yi(axi+b)]2)a==i=1n[2(yi(axi+b))(xi)]==2i=1n(axi2+bxixiyi),RSSb=(i=1n[yi(axi+b)]2)b==i=1n[2(yi(axi+b))(1)]==2i=1n(axi+byi). \begin{aligned} \frac{\partial RSS}{\partial a} &= {\left( \sum\limits_{i=1}^{n} {\left[ y_i - (a x_i + b) \right]}^2 \right)}_a' = \\ &= \sum\limits_{i=1}^{n} \left[ 2 (y_i - (a x_i + b)) \cdot (-x_i) \right] = \\ &= 2 \sum\limits_{i=1}^{n} \left( a x_i^2 + b x_i - x_i y_i \right), \\ \frac{\partial RSS}{\partial b} &= {\left( \sum\limits_{i=1}^{n} {\left[ y_i - (a x_i + b) \right]}^2 \right)}_b' = \\ &= \sum\limits_{i=1}^{n} \left[ 2 (y_i - (a x_i + b)) \cdot (-1) \right] = \\ &= 2 \sum\limits_{i=1}^{n} \left( a x_i + b - y_i \right). \end{aligned} Приравнивая полученные производные к нулю, получаем следующую систему: i=1n(axi2+bxixiyi)=0,i=1n(axi+byi)=0. \begin{aligned} \sum\limits_{i=1}^{n} \left( a x_i^2 + b x_i - x_i y_i \right) &= 0, \\ \sum\limits_{i=1}^{n} \left( a x_i + b - y_i \right) &= 0. \end{aligned}

    Стоит отметить, что исходная функция является положительно определённой, поэтому решение этой системы будет точкой минимума.

    Разбиваем суммы: ai=1nxi2+bi=1nxi=i=1nxiyi,ai=1nxi+nb=i=1nyi. \begin{aligned} a \sum\limits_{i=1}^{n} x_i^2 + b \sum\limits_{i=1}^{n} x_i &= \sum\limits_{i=1}^{n} x_i y_i, \\ a \sum\limits_{i=1}^{n} x_i + n b &= \sum\limits_{i=1}^{n} y_i. \end{aligned} Положим β^1:=a,β^2:=b, \widehat \beta_1 := a, \qquad \widehat \beta_2 := b, тогда получаем систему β^2i=1nxi2+β^1i=1nxi=i=1nxiyi,β^2i=1nxi+nβ^1=i=1nyi. \begin{aligned} \widehat \beta_2 \sum\limits_{i=1}^{n} x_i^2 + \widehat \beta_1 \sum\limits_{i=1}^{n} x_i &= \sum\limits_{i=1}^{n} x_i y_i, \\ \widehat \beta_2 \sum\limits_{i=1}^{n} x_i + n \widehat \beta_1 &= \sum\limits_{i=1}^{n} y_i. \end{aligned} Поделим оба уравнения на nn, получаем: β^2x2+β^1x=xy,β^2x+β^1=y. \begin{aligned} \widehat \beta_2 \overline{x^2} + \widehat \beta_1 \overline x &= \overline{xy}, \\ \widehat \beta_2 \overline x + \widehat \beta_1 &= \overline y. \end{aligned} Выражая искомые оценки коэффициентов линейной парной регрессии, получаем: β^2=xyxyx2x2,β^1=yβ^2x, \begin{aligned} \widehat \beta_2 &= \frac{\overline{xy} - \overline{x} \cdot \overline{y}}{\overline{x^2} - \overline{x}^2}, \\ \widehat \beta_1 &= \overline y - \widehat \beta_2 \overline x, \end{aligned} или, вспоминая формулы cov^(x,y)=1ni=1n(xix)(yiy),var^(x)=1ni=1n(xix)2, \begin{aligned} \widehat \cov(x,y) &= \frac{1}{n} \sum\limits_{i=1}^{n} (x_i - \overline x) (y_i - \overline y), \\ \widehat \var(x) &= \frac{1}{n} \sum\limits_{i=1}^{n} {(x_i - \overline x)}^2, \end{aligned} окончательно имеем β^2=ycov^(x,y)var^(x),β^1=ycov^(x,y)var^(x)x. \begin{aligned} \widehat \beta_2 &= \phantom{\overline y -} \frac{\widehat \cov(x,y)}{\widehat \var(x)}, \\ \widehat \beta_1 &= \overline y - \frac{\widehat \cov(x,y)}{\widehat \var(x)} \overline x. \end{aligned}
  22. Свойства остатков регрессии eie_i, полученных в процессе применения МНК
    Пусть ei=yiy^ie_i = y_i - \widehat y_i. Тогда справедливы свойства:
    1. i=1nei=0\sum\limits_{i=1}^{n} e_i = 0;
    2. i=1nxiei=0\sum\limits_{i=1}^{n} x_i e_i = 0;
    3. i=1nyi=i=1ny^i\sum\limits_{i=1}^{n} y_i = \sum\limits_{i=1}^{n} \widehat y_i;
    4. i=1n(y^iy)ei=0\sum\limits_{i=1}^{n} (\widehat y_i - \overline y) e_i = 0 или cov^(y^,e)=0\widehat \cov(\widehat y, e) = 0.
  23. Как оценить качество полученной регресии?

    Пусть β^1,β^2\widehat \beta_1, \widehat \beta_2 — коэффициенты регрессии, полученные МНК.

    Чтобы оценить качество полученной регрессии (то, насколько хорошо линия регрессии соответствует фактическим данным), можно сделать следующее.

    Для начала выразим переменную yy через остатки и предсказанные значения y^i\widehat y_i: ei=yiy^i    yi=ei+y^i. e_i = y_i - \widehat y_i \implies y_i = e_i + \widehat y_i. Теперь вычислим выборочную дисперсию этой переменной: var^(y)=var^(e+y^)==var^(e)+var^(y^)+2cov(e,y^). \begin{aligned} \widehat \var(y) &= \widehat \var(e + \widehat y) = \\ &= \widehat \var(e) + \widehat \var(\widehat y) + 2 \cov(e, \widehat y). \end{aligned} Заметим, что cov(e,y^)=0\cov(e, \widehat y) = 0, поэтому var^(y)=var^(e)+var^(y^), \widehat \var(y) = \widehat \var(e) + \widehat \var(\widehat y), или, что то же самое, 1ni=1n(yiy)2=1ni=1n(eie)2+1ni=1n(y^iy)2. \frac{1}{n} \sum\limits_{i=1}^{n} {(y_i - \overline{y})}^2 = \frac{1}{n} \sum\limits_{i=1}^{n} {(e_i - \overline{e})}^2 + \frac{1}{n} \sum\limits_{i=1}^{n} {(\widehat y_i - \overline{y})}^2. Теперь, пользуясь свойствами остатков регрессии:
    • e=0\overline e = 0;
    • y=y^\overline y = \overline {\widehat y}
    и домножая полученное равенство на nn, окончательно имеем i=1n(yiy)2=i=1nei2+i=1n(y^iy)2. \sum\limits_{i=1}^{n} {(y_i - \overline{y})}^2 = \sum\limits_{i=1}^{n} e_i^2 + \sum\limits_{i=1}^{n} {(\widehat y_i - \overline{y})}^2. Этот факт записывают следующим образом: TSS=ESS+RSS, TSS = ESS + RSS, где
    • TSS=i=1n(yiy)2TSS = \sum\limits_{i=1}^{n} {(y_i - \overline{y})}^2общая сумма квадратов;
    • ESS=i=1n(y^iy)2ESS = \sum\limits_{i=1}^{n} {(\widehat y_i - \overline{y})}^2объяснённая регрессией сумма квадратов;
    • RSS=i=1n(yiy^i)2RSS = \sum\limits_{i=1}^{n} {(y_i - \widehat y_i)}^2необъяснённая регрессией сумма квадратов (сумма квадратов остатков).

    Чем лучше построенная модель соответствует фактическим данным, тем меньше сумма квадратов остатков, следовательно, тем ближе ESS к TSS. Иными словами, если модель хорошо соответствует данным, то дробь ESSTSS=i=1n(y^iy)2i=1n(yiy)2 \frac{ESS}{TSS} = \frac{ \sum\limits_{i=1}^{n} {(\widehat y_i - \overline y)}^2 }{ \sum\limits_{i=1}^{n} {(y_i - \overline y)}^2 } близка к единице, а в идеальном случае дробь равна единице.

    Напротив, чем хуже линия регрессии описывает фактические данные, тем ближе отношение ESSTSS\dfrac{ESS}{TSS} к нулю.

    На этой идее основывается использование коэффициента R2R^2.

    Коэффициент детерминации R2R^2 задаётся как R2=1RSSTSS=TSSRSSTSS=ESSTSS. R^2 = 1 - \frac{RSS}{TSS} = \frac{TSS - RSS}{TSS} = \frac{ESS}{TSS}. Его также можно представить в виде R2=ESSTSS=i=1n(y^iy)2i=1n(yiy)2==1ni=1n(y^iy)21ni=1n(yiy)2==var^(y^)var^(y). \begin{aligned} R^2 = \frac{ESS}{TSS} &= \frac{ \sum\limits_{i=1}^{n} {(\widehat y_i - \overline y)}^2 }{ \sum\limits_{i=1}^{n} {(y_i - \overline y)}^2 } = \\ &= \frac{ \frac{1}{n} \sum\limits_{i=1}^{n} {(\widehat y_i - \overline y)}^2 }{ \frac{1}{n} \sum\limits_{i=1}^{n} {(y_i - \overline y)}^2 } = \\ &= \frac{\widehat \var (\widehat y)}{\widehat \var (y)}. \end{aligned}
    Понятно, что R2[0,1]R^2 \in [0, 1].
  24. Чему равна стандартная ошибка МНК-оценки β^1\widehat \beta_1?
    Пусть S2S^2 — несмещённая оценка дисперсии σ2\sigma^2 случайной ошибки: S2=1n2i=1nei2. S^2 = \frac{1}{n-2} \sum\limits_{i=1}^{n} e_i^2.
    Стандартной ошибкой se(β^1)\se(\widehat \beta_1) МНК-оценки β^1\widehat \beta_1 называют величину se(β^1)=var^(β^1)=S2x2i=1n(xix)2. \se(\widehat \beta_1) = \sqrt{\widehat \var (\widehat \beta_1)} = \sqrt{ \frac{S^2 \cdot \overline{x^2} }{\sum\limits_{i=1}^{n} {(x_i - \overline x)}^2} }.
  25. Чему равна стандартная ошибка МНК-оценки β^2\widehat \beta_2?
    Пусть S2S^2 — несмещённая оценка дисперсии σ2\sigma^2 случайной ошибки: S2=1n2i=1nei2. S^2 = \frac{1}{n-2} \sum\limits_{i=1}^{n} e_i^2.
    Стандартной ошибкой se(β^2)\se(\widehat \beta_2) МНК-оценки β^2\widehat \beta_2 называют величину se(β^2)=var^(β^2)=S2i=1n(xix)2. \se(\widehat \beta_2) = \sqrt{\widehat \var (\widehat \beta_2)} = \sqrt{ \frac{S^2}{\sum\limits_{i=1}^{n} {(x_i - \overline x)}^2} }.
  26. Гипотеза о независимости переменных
    Рассмотрим КЛМПР: yi=β1+β2xi+εi,i=1,n. y_i = \beta_1 + \beta_2 x_i + \varepsilon_i, \qquad i = \overline{1,n}. Рассмотрим две гипотезы:
    • Нулевая гипотеза H0:β2=0H_0: \beta_2 = 0 — переменная xx не влияет на yy;
    • Альтернативная гипотеза H1:β20H_1: \beta_2 \neq 0 — переменная xx влияет на yy.
    Для проверки гипотезы понадобится расчётное значение тестовой статистики: tрасч=β^2se(β^2), t_\mbox{расч} = \frac{\widehat \beta_2}{\se(\widehat \beta_2)}, где se(β^2)\se(\widehat \beta_2) — стандартная ошибка коэффициента: se(β^2)=S2i=1n(xix)2. \se(\widehat \beta_2) = \sqrt{ \frac{S^2}{\sum\limits_{i=1}^{n} {(x_i - \overline x)}^2} }. Здесь SS — несмещённая оценка дисперсии σ2\sigma^2 случайной ошибки (среднеквадратичное отклонение остатков): S2=1n2i=1nei2=1n2i=1n(yiy^i)2. S^2 = \frac{1}{n-2} \sum\limits_{i=1}^{n} e_i^2 = \frac{1}{n - 2} \sum\limits_{i=1}^{n} {(y_i - \widehat y_i)}^2.

    Зададим уровень значимости α\alpha — вероятность ошибки первого рода, то есть вероятность отклонить проверяемую гипотезу при условии, что в действительности эта гипотеза верна.

    Критическим значением тогда будет являться tn2α/2t_{n-2}^{\alpha/2} — значение распределения Стьюдента для (n2)(n-2) степеней свободы и выбранного уровня значимости α\alpha.

    Тогда, если выполняется неравенство β^2se(β^2)>tn2α/2, \abs{ \frac{\widehat \beta_2}{\se(\widehat \beta_2)} } \gt t_{n-2}^{\alpha/2}, то гипотезу H0H_0 следует отвергнуть, то есть следует сделать вывод о том, что xx влияет на yy. В этом случае переменную xx называют статистически значимой при уровне значимости α\alpha.

    В противном случае нет оснований отвергнуть гипотезу H0H_0, а переменную xx называют статистически незначимой при уровне значимости α\alpha.

    Аналогично можно проверять гипотезу H0:β2=cH_0: \beta_2 = c против альтернативной гипотезы H1:β2cH_1: \beta_2 \neq c. Тогда расчётное значение тестовой статистики задаётся формулой tрасч=β^2cse(β^2). t_\mbox{расч} = \frac{\widehat \beta_2 - c}{\se(\widehat \beta_2)}.
  27. Почему тестовая статистика tрасчt_\mbox{расч} имеет распределение Стьюдента?
    Это следует из 6 предпосылки КЛМПР о том, что случайные ошибки имеют нормальное распределение: εiN(0,σ2). \varepsilon_i \sim N(0, \sigma^2).
  28. Построение доверительного интервала для коэффициента β^2\hat \beta_2 парной регрессии
    Рассмотрим классическую линейную модель парной регрессии: yi=β1+β2xi+εi,i=1,n. y_i = \beta_1 + \beta_2 x_i + \varepsilon_i, \qquad i = \overline{1,n}. Пусть α\alpha — заданный уровень значимости. Зная распределение коэффициента β^2\widehat \beta_2, можно утверждать, что с вероятностью 1α1 - \alpha выполняется неравенство β^2β2se(β^2)<tn2α/2. \abs{ \frac{\widehat \beta_2 - \beta_2}{\se(\widehat \beta_2)} } \lt t_{n-2}^{\alpha/2}. Решив это неравенство относительно β2\beta_2, получаем, что β^2se(β^2)tn2α/2<β2<β^2+se(β^2)tn2α/2. \widehat \beta_2 - \se(\widehat \beta_2) t_{n-2}^{\alpha/2} \lt \beta_2 \lt \widehat \beta_2 + \se(\widehat \beta_2) t_{n-2}^{\alpha/2}. Следовательно, доверительный интервал для β2\beta_2 имеет вид (β^2se(β^2)tn2α/2;  β^2+se(β^2)tn2α/2). \left( \widehat \beta_2 - \se(\widehat \beta_2) t_{n-2}^{\alpha/2}; \; \widehat \beta_2 + \se(\widehat \beta_2) t_{n-2}^{\alpha/2} \right).
  29. Оценка качества регрессии: FF-статистика

    Кроме проверки значимости отдельных коэффициентов, важно выяснить, является ли рассматриваемая модель в целом статистически значимой.

    Рассмотрим две гипотезы:
    • H0H_0: все коэффициенты регрессии равны нулю;
    • H1H_1: по крайней мере один из коэффициентов не равен нулю, то есть модель является статистически значимой.
    Рассмотрим тестовую статистику, которую называют FF-статистикой: Fрасч=R2/(k1)(1R2)/(nk), F_\mbox{расч} = \frac{R^2 / (k-1)}{(1 - R^2) / (n - k)}, где kk — количество степеней свободы (число коэффициентов в модели линейной регрессии).
    В КЛМПР k=2k = 2, поэтому FF-статистика принимает вид Fрасч=(n2)R21R2. F_\mbox{расч} = (n-2) \frac{R^2}{1 - R^2}.
    Далее, находим критическое значение FкрF_\mbox{кр} распределения Фишера со степенями свободы (k1,nk)(k-1, n-k) и выбранного уровня значимости α\alpha:
    • если Fрасч<FкрF_\mbox{расч} < F_\mbox{кр}, то нет оснований отвергнуть гипотезу H0H_0, то есть модель является статистически незначимой при уровне значимости α\alpha;
    • в противном случае гипотеза H0H_0 отвергается, а модель признаётся статистически значимой.
    Для случая парной регрессии Fрасч=tрасч2F_\mbox{расч} = t_\mbox{расч}^2.
    Fрасч=ESSRSS/(n2)==i=1n(y^iy)2(i=1n(yiy^i)2)/(n2)==i=1n[(β^1+β^2xi)(β^1+β^2)]2i=1n(yiy^i)2/(n2)==i=1nβ^22(xix)2s2==β^22s2/i=1n(xix)2==(β^2se(β^2))2==tрасч2. \begin{aligned} F_\mbox{расч} &= \frac{ESS}{RSS / (n - 2)} = \\ &= \frac{\sum\limits_{i=1}^{n} {(\widehat y_i - \overline y)}^2}{\left( \sum\limits_{i=1}^{n} {(y_i - \widehat y_i)}^2 \right) / (n - 2)} = \\ &= \frac{\sum\limits_{i=1}^{n} {\left[ (\widehat \beta_1 + \widehat \beta_2 x_i) - \sum\limits (\widehat \beta_1 + \widehat \beta_2) \right]}^2} {\sum\limits_{i=1}^{n} {(y_i - \widehat y_i)}^2 / (n - 2)} = \\ &= \frac{\sum\limits_{i = 1}^{n} \widehat \beta_2^2 (x_i - \overline x)^2}{s^2} = \\ &= \frac{\widehat \beta_2^2}{s^2 / \sum\limits_{i=1}^{n} (x_i - \overline x)^2} = \\ &= \left( \frac{\widehat \beta_2}{\se (\widehat \beta_2)} \right)^2 = \\ &= t_\mbox{расч}^2. \end{aligned}
  30. Определение: строгая мультиколлинеарность
    Говорят, что имеет место строгая мультиколлинеарность, если между регрессорами в модели есть точная линейная связь, то есть когда одна объясняющая переменная точным образом линейно выражается через другие.
  31. Можно ли вычислить МНК-оценки коэффициентов регрессии, когда имеет место строгая мультиколлинеарность?
    Нет, нельзя: при полной мультиколлинеарности столбцы матрицы регрессоров XX является вырожденной, поэтому матрица (XTX)1(X^T X)^{-1} не определена.
  32. Как можно избавиться от строгой мультиколлинеарности?
    От строгой мультиколлинеарности можно избавиться, исключив линейно зависимые переменные.
  33. Определение: нестрогая мультиколлинеарность
    Говорят, что имеет место нестрогая мультиколлинеарность, если между регрессорами в модели отсутствует точная линейная связь, но они сильно коррелируют между собой.
  34. Какое негативное влияние оказывает нестрогая мультиколлинеарность?
    При нестрогой мультиколлинеарности можно вычислить МНК-оценки коэффициентов регрессии, но их стандартные ошибки оказываются высокими, а точность оценок — низкой.
  35. Почему при нестрогой мультиколлинеарности МНК-оценки оказываются неточными?
    Это происходит из-за того, что при сильной корреляции двух регрессоров в выборке они, как правило, меняются одновременно, поэтому оказывается трудно отличить влияние одного регрессора от другого.
  36. Происходит ли смещение МНК-оценок при нестрогой мультиколлинеарности?
    Нет — все предпосылки КЛММР соблюдаются.
  37. Причины мультиколлинеарности
    • Высокая корреляция между объясняющими переменными (например, одна переменная является линейной комбинацией двух других).
    • Присутствие фиктивных переменных (если все категории включены в модель).
  38. Последствия мультиколлинеарности
    • Нестабильные оценки коэффициентов — небольшое изменение исходных данных влечёт за собой существенное изменение МНК-оценок коэффициентов регрессии.
    • Увеличение стандартных ошибок.
    • Незначимость большинства переменных — каждая переменная в отдельности является незначимой, а уравнение в целом является значимым и характеризуется близким к единице коэффициентом R2R^2.
    • Проблемы с интерпретацией (сложно понять, какая переменная влияет на зависимую и в каком направлении).
  39. Как выявить мультиколлинеарность?
    О существенной частичной мультиколлинеарности можно судить по следующим признакам:
    • большие по модулю парные коэффициенты корреляции между регрессорами (больше 0.9); выявить можно по матрице корреляции;
    • близость к нулю определителя матрицы XTXX^T X;
    • большие значения коэффициентов VIF (больше 10).
  40. Определение: коэффициент корреляции Пирсона
    Коэффициент корреляции Пирсона задаётся формулой rxy=i=1n(xix)(yiy)i=1n(xix)2i=1n(yiy)2=cov(x,y)σxσy. r_{xy} = \frac{ \sum\limits_{i=1}^{n} (x_i - \overline x) (y_i - \overline y) }{ \sqrt{ \sum\limits_{i=1}^{n} {(x_i - \overline x)}^2 } \sqrt{ \sum\limits_{i=1}^{n} {(y_i - \overline y)}^2 } } = \frac{\cov(x,y)}{\sigma_x \sigma_y}.
    Трактовка:
    • rxyr_{xy} принимает значения на промежутке [1,1][-1, 1];
    • знак rxyr_{xy} показывает направление связи (прямая или обратная);
    • абсолютная величина rxyr_{xy} показывает силу связи.
  41. Определение: матрица корреляции
    Матрицей корреляции называют матрицу, в позиции (i,j)(i,j) которой стоит коэффициент корреляции между переменными ii и jj: R=(1r12r13r1nr211r23r2nrn1rn2rn31), R = \begin{pmatrix} 1 & r_{12} & r_{13} & \dots & r_{1n} \\ r_{21} & 1 & r_{23} & \dots & r_{2n} \\ \vdots & \vdots & \vdots & \ddots & \vdots \\ r_{n1} & r_{n2} & r_{n3} & \dots & 1 \end{pmatrix}, где rijr_{ij} — коэффициент корреляции Пирсона между переменными ii и jj.
    Матрицу корреляции можно изобразить в виде heatmap, по которой можно найти переменные с сильной корреляцией.
  42. Определение: VIF
    VIF (variance inflation factor) — коэффициенты, показывающие, насколько сильно связаны друг с другом регрессоры модели.

    Чтобы определить коэффициент VIF, соответствующий регрессору x(j)x^{(j)}, нужно оценить вспомогательную регрессию, в которой слева стоит x(j)x^{(j)}, а справа — все остальные объясняющие переменные исходной модели.

    После этого нужно вычислить коэффициент VIF по формуле VIF=11R2, \operatorname{VIF} = \frac{1}{1 - R^2}, где R2R^2 — коэффициент детерминации из оценённой вспомогательной регрессии.

    Если коэффициенты VIF всех регрессоров меньше 10, то существенной мультиколлинеарности в модели не наблюдается.

  43. Определение: VIF
    VIF (variance inflation factor) — коэффициенты, показывающие, насколько сильно связаны друг с другом регрессоры модели.
  44. Как бороться с мультиколлинеарностью?
    • Увеличение количества наблюдений (если возможно).
    • Удаление сильно коррелирующих регрессоров — есть риск получить смещение МНК-оценок в результате пропуска существенной переменной.
    • Комбинирование переменных (объединение коррелирующих переменных в одну).
    • Регуляризация (использование методов регуляризации, таких как Ridge или Lasso регрессий).
  45. Определение: регуляризация
    Регуляризация — метод добавления некоторых дополнительных ограничений к условию с целью решить некорректно поставленную задачу или предотвратить переобучение.
  46. Пример: LASSO-регуляризация
    LASSO-регуляризация задаётся формулой JLASSO=i=1n(yiy^i)2+λβ1, J_\mbox{LASSO} = \sum\limits_{i=1}^{n} (y_i - \widehat y_i)^2 + \lambda \norm{\beta}_1, где λ\lambda — гиперпараметр. На коэффициенты β\beta накладываются дополнительное ограничение вида i=1nβit, \sum\limits_{i=1}^{n} \abs{\beta_i} \leqslant t, где tt — обратно пропорциональная λ\lambda величина.
    Чем больше λ\lambda, тем сильнее модель штрафуется за величину коэффициентов и их количество.
  47. Пример: RIDGE-регуляризация
    RIDGE-регуляризация задаётся формулой JRIDGE=i=1n(yiy^i)2+λβ2, J_\mbox{RIDGE} = \sum\limits_{i=1}^{n} (y_i - \widehat y_i)^2 + \lambda \beta^2, где λ\lambda — гиперпараметр. На коэффициенты β\beta накладываются дополнительное ограничение вида i=1nβi2t, \sum\limits_{i=1}^{n} \beta_i^2 \leqslant t, где tt — обратно пропорциональная λ\lambda величина.
    Чем больше λ\lambda, тем сильнее модель штрафуется за величину коэффициентов и их количество.
  48. Может ли LASSO-регуляризация занулить МНК-оценки коэффициентов регрессии?
    Да.
  49. Может ли RIDGE-регуляризация занулить МНК-оценки коэффициентов регрессии?
    Нет.
  50. Определение: фиктивная переменная
    Фиктивной переменной называют качественную переменную, принимающую значения 0 либо 1, включаемую в модель для учёта влияния качественных признаков на объясняемую переменную.
    Фиктивную переменную включают в модель линейной регресии, когда подозревают качественную зависимость.
    Если качественная переменная имеет kk альтернативных значений, то при моделировании используется только k1k - 1 фиктивных переменных.
  51. Почему для признака, принимающего mm возможных значений, используется m1m-1 фиктивная переменная?
    Если включать в модель mm фиктивных переменных, то столкнёмся с чистой мультиколлинеарностью.
  52. Определение: фиктивная переменная наклона

    Если есть подозрение, что с ростом одного регрессора xix_i линейно изменяется разница между значениями качественной переменной did_i, для вычисления этого изменения вводят фиктивные переменные наклона xidix_i d_i.

  53. Проверка центрированности
    Чтобы проверить, равняется ли мат. ожидание случайной ошибки нулю или нет, можно воспользоваться статистическими критериями
    • Колмогорова-Смирнова;
    • Стьюдента.

    Иногда случайная составляющая (ошибка) будет положительной, иногда отрицательной, но она не должна иметь систематического смещения ни в одном из двух возможных направлений.

    Высказываем гипотезы:
    • H0:Eε=μ0=0H_0: E \varepsilon = \mu_0 = 0;
    • H1:Eεμ0=0H_1: E \varepsilon \neq \mu_0 = 0.
    Расчётная статистика: t=εμ0sε/n, t = \frac{\overline \varepsilon - \mu_0}{s_\varepsilon / \sqrt{n}}, где sεs_\varepsilon — несмещённая оценка дисперсии случайной ошибки.
  54. Проверка гомоскедастичности
    • H0H_0: ошибка гомоскедастична;
    • H1H_1: ошибка гетероскедастична.
    Существует два теста:
    1. тест Бройша—Пагана.
      1. Рассматриваем уравнение регрессии: yi=β1+β2x2i++βkxki+εiy_i = \beta_1 + \beta_2 x_{2i} + \dots + \beta_k x_{ki} + \varepsilon_i.
      2. Ищем МНК-оценки и вычисляем RSS.
      3. В предположении гомоскедастичности случайных ошибок строим состоятельную оценку дисперсии ошибок: σ^2=RSS/n. \widehat \sigma^2 = RSS / n.
      4. Ищем МНК-оценки для новой регрессионной модели: eiσ^2=γ1+γ2z2i++γkzki+ηi, \frac{e_i}{\widehat \sigma^2} = \gamma_1 + \gamma_2 z_{2i} + \dots + \gamma_k z_{ki} + \eta_i, где в качестве ziz_i обычно берут xix_i.
      5. В качестве тестовой статистики берём ESS/2\operatorname{ESS} / 2, где ESS\operatorname{ESS} — объяснённая часть вспомогательной регрессионной модели.
      6. В случае гомоскедастичности тестовая статистика подчиняется распределению χk12\chi^2_{k-1}.
        Также тут надо требовать, чтобы ошибки имели нормальное распределение (см. предпосылку 6).
    2. тест Голфелда—Квандта.
      1. Рассматриваем уравнение регрессии: yi=β1+β2x2i++βkxki+εiy_i = \beta_1 + \beta_2 x_{2i} + \dots + \beta_k x_{ki} + \varepsilon_i.
      2. Упорядочиваем наблюдения по возрастанию xjx_j — переменной, относительно которой имеется подозрение на гетероскедастичность.
      3. Оцениваем исходную регрессионную модель обычным МНК для двух выборок:
        • для первых n1n_1 наблюдений;
        • для последних n2n_2 наблюдений.
      4. Вычисляем RSS1\operatorname{RSS}_1 и RSS2\operatorname{RSS}_2, строим тестовую статистику: Fрасч=RSS1/(m1k)RSS2/(m2k). F_\mbox{расч} = \frac{\operatorname{RSS}_1 / (m_1 - k)}{\operatorname{RSS}_2 / (m_2 - k)}.
      5. Данная статистика при отсутствии гетероскедастичности имеет распределение Фишера F(m1k,m2k)F(m_1 - k, m_2 - k).
  55. Проверка на автокорреляцию
    Проверяем, присутствует ли систематическая связь между значениями остатков любых двух наблюдений. Случайные составляющие должны быть взаимно независимы.
    1. Тест Дарбина—Уотсона — проверка автокорреляции первого порядка между остатками регрессии
      1. Ищем МНК-оценки и вычисляем остатки eie_i.
      2. Строим статистику Дарбина—Уотсона: DW=i=1n(eiei1)2i=1nei2. \operatorname{DW} = \frac{\sum\limits_{i=1}^{n} (e_i - e_{i-1})^2}{\sum\limits_{i=1}^{n} e_i^2}. Чем больше nn, тем ближе DWDW к 2(1ρ1)2 (1 - \rho_1), где ρ1\rho_1 — коэффициент автокорреляции первого порядка.
        • Отсутствие автокорреляции — ρ1=0    DW2\rho_1 = 0 \implies DW \approx 2;
        • Положительная автокорреляция — ρ1=1    DW0\rho_1 = 1 \implies DW \approx 0;
        • Отрицательная автокорреляция — ρ1=1    DW4\rho_1 = -1 \implies DW \approx 4.
    2. Тест Бройша—Годфри — подходит для проверки автокорреляции любого порядка.
      1. Проверка автокорреляции порядка pp: строим вспомогательную регрессионную модель: ei=β1+β2x2i++βkxki+j=1pajeik+εi. e_i = \beta_1 + \beta_2 x_{2i} + \dots + \beta_k x_{ki} + \sum\limits_{j=1}^{p} a_j e_{i - k} + \varepsilon_i.
      2. Высказываем гипотезу об одновременном равенстве нулю aja_j. Строим тестовую статистику: (np)R2(n-p)R^2, где R2R^2 — коэффициент детерминации вспомогательной модели, а nn — объём исходной выборки.
      3. В случае отсутствия автокорреляции тестовая статистика имеет асимптотическое распределение χp2\chi_p^2. Если LM > крит. значение, то АК признаётся значимой.
  56. Проверка некоррелированности

    Остатки должны быть распределены независимо от объясняющих переменных: cov(xi,ei)=0. \cov(x_i, e_i) = 0.

    Для проверки используют ранговый тест Спирмена:

    1. для каждой пары (xi,ei)(x_i, e_i) вычисляем ранги (R[xi],R[ei])(R[x_i], R[e_i]) (под рангом подразумевается порядковый номер данной величины в отсортированном массиве всех подобных величин);
    2. вычисляем величину Rs=16i=1ndi2n(n21),diR[xi]R[ei]. R_s = 1 - \frac{6 \sum\limits_{i=1}^{n} d_i^2}{n(n^2 - 1)}, \qquad d_i \equiv R[x_i] - R[e_i].
      Тут мы считаем, что нет одинаковых величин xix_i и eie_i. Если они есть, надо считать так: Rs=ρ(R[x],R[e]), R_s = \rho(R[x], R[e]), где ρ\rho — коэффициент корреляции Пирсона.
    3. строим статистику tрасч=Rsn21Rs2, t_\mbox{расч} = R_s \sqrt{ \frac{n-2}{1 - R_s^2} }, которая в случае отсутствия корреляции подчиняется распределению Стьюдента с n2n-2 степенями свободы.
  57. Определение: панельные данные
    Панельные данные — пролонгированные пространственные выборки, где каждый объект наблюдается многократно на протяжении отрезка времени.
  58. Сколько измерений насчитывают панельные данные?
    Три:
    • признаки;
    • объекты;
    • время.
  59. Представление панельных данных
    Панельные данные можно представлять в виде long panel dataset:
    Группа Период времени Обозначение
    11 11X11X_{11}
    11 22 X12X_{12}
    \dots \dots \dots
    11 TT X1TX_{1T}
    \dots \dots \dots
    NN 11 XN1X_{N1}
    NN 22 XN2X_{N2}
    \dots \dots \dots
    NN TT XNTX_{NT}
    Также их можно представлять в виде wide panel dataset:
    Время Группа 1 Группа 2 \dots Группа NN
    11 X11X_{11} X21X_{21} \dots XN1X_{N1}
    22 X12X_{12} X22X_{22} \dots XN2X_{N2}
    \dots \dots \dots \dots \dots
    TT X1TX_{1T} X2TX_{2T} \dots XNTX_{NT}
  60. Определение: эндогенный регрессор
    Регрессор называют эндогенным, если он коррелирует со случайными ошибками в модели.
  61. Определение: экзогенный регрессор
    Регрессор называют экзогенным, если он не коррелирует со случайными ошибками в модели.
  62. Преимущества панельных данных
    1. Большое количество наблюдений.
    2. Возможность отслеживать динамику для множества объектов.
    3. Дополнительный способ устранить эндогенность.
  63. Определение: сбалансированная панель
    Панель называют сбалансированной, если общее число наблюдений равняется NTN \cdot T.
  64. Определение: несбалансированная панель
    Панель называют несбалансированной, если общее число наблюдений < NTN \cdot T.
  65. Можно ли для несбалансированной панели использовать те же методы оценивания, что и для сбалансированной?
    Да, но только в том случае, если возникновение пропусков является экзогенным.
  66. Как неоднородность моделируемых объектов может затруднить оценивание?
    Рассмотрим модель: yit=βxit+μi+εit, y_{it} = \beta x_{it} + \mu_i + \varepsilon_{it}, где
    • yity_{it} — описываемая переменная;
    • xitx_{it} — описывающая переменная;
    • εit\varepsilon_{it} — случайные ошибки модели;
    • μi\mu_i — ненаблюдаемые величины, характеризующие специфику объектов.
    Имеем дилемму:
    • с одной стороны, мы не можем включить μi\mu_i в модель, так как эти величины являются ненаблюдаемыми;
    • с другой стороны, если μi\mu_i коррелированы с интересующими нас xitx_{it}, то их невключение приведёт к несостоятельности оценки коэффициента β\beta из-за пропуска существенной переменной.
  67. Модель сквозной регрессии
    Модель задаётся уравнением yit=βxit+α+εit,t=1,T. y_{it} = \beta x_{it} + \alpha + \varepsilon_{it}, \qquad t = \overline{1,T}. Решается обычным МНК: β^OLS=(XTX)1XTy. \widehat \beta_\mbox{OLS} = (X^T X)^{-1} X^T y.
  68. Модель с фиксированными эффектами, предпосылки
    Предпосылки модели с фиксированными эффектами:
    1. модель линейна по параметрам: yit=βxit+μi+εit,t=1,T; y_{it} = \beta x_{it} + \mu_i + \varepsilon_{it}, \qquad t = \overline{1,T};
    2. наблюдения xit,εit,i=1,n,t=1,T x_{it}, \varepsilon_{it}, \qquad i = \overline{1,n}, \quad t = \overline{1,T} независимы и одинаково распределены.
      Эта предпосылка не требует независимости между значениями регрессоров, относящихся к одному объекту, но в разные моменты времени: например, допустимо, чтобы xi3x_{i3} был коррелирован с xi2x_{i2}.
    3. xitx_{it} и εit\varepsilon_{it} имеют ненулевые конечные четвёртые моменты распределения: E(xit4)<,E(εit4)<; E(x_{it}^4) \lt \infty, \qquad E(\varepsilon_{it}^4) \lt \infty;
    4. случайные ошибки имеют нулевое условное мат. ожидание: E(εitxi1,,xiT,μi)=0. E(\varepsilon_{it} | x_{i1}, \dots, x_{iT}, \mu_i) = 0.
      Эта предпосылка требует, чтобы регрессор был экзогенен в том смысле, что он не должен быть связан со случайной ошибкой в модели. В то же время она допускает наличие корреляции между xitx_{it} и μi\mu_i.
  69. Модель с фиксированными эффектами, решение
    Рассмотрим модель с ФЭ: yit=βxit+μi+εit,t=1,T, y_{it} = \beta x_{it} + \mu_i + \varepsilon_{it}, \qquad t = \overline{1,T}, где β\beta — вектор (1×n)(1 \times n).

    Перейдём к средним по времени величинам и вычтем полученные уравнения из соответствующих исходных: yityi=β(xitxi)+μiμi+εitεi. y_{it} - \overline{y_i} = \beta (x_{it} - \overline{x_i}) + \cancel{\mu_i - \overline{\mu_i}} + \varepsilon_{it} - \overline{\varepsilon_i}. Полученная модель не зависит от ненаблюдаемых эффектов μi\mu_i.

    Потребуем условия:

    • ошибки εit\varepsilon_{it} не коррелируют между собой по ii и tt;
    • ошибки εit\varepsilon_{it} не коррелируют с регрессорами xjsx_{js} по всем i,t,j,si,t,j,s.
    Эти условия гарантируют несмещённость и состоятельность оценок.

    Для решения применяем обычный МНК: β^=(i=1Nt=1T(xitxi)(xitxi)T)1i=1Nt=1T(xitxi)(yityi). \widehat \beta = {\left( \sum\limits_{i=1}^{N} \sum\limits_{t=1}^{T} (x_{it} - \overline{x_i}) (x_{it} - \overline{x_i})^T \right)}^{-1} \cdot \sum\limits_{i=1}^{N} \sum\limits_{t=1}^{T} (x_{it} - \overline{x_i}) (y_{it} - \overline{y_i}).

    Полученные оценки называют внутригрупповыми эффектами или оценками с фиксированным эффектом.

    В качестве оценок индивидуальных эффектов можно взять μ^i=yixiTβ^. \widehat \mu_i = \overline{y_i} - \overline{x_i}^T \widehat \beta.

  70. Модель со случайными эффектами, предпосылки
    Предпосылки модели со случайными эффектами:
    1. модель линейна по параметрам: yit=β1xit(1)++βkxit(k)+μi+εit,t=1,T; y_{it} = \beta_1 x_{it}^{(1)} + \dots + \beta_k x_{it}^{(k)} + \mu_i + \varepsilon_{it}, \qquad t = \overline{1,T};
    2. наблюдения xit(j),εit,i=1,n,j=1,k,t=1,T x_{it}^{(j)}, \varepsilon_{it}, \qquad i = \overline{1,n}, \quad j = \overline{1,k}, \quad t = \overline{1,T} независимы и одинаково распределены;
    3. xit(1),,xit(k)x_{it}^{(1)}, \dots, x_{it}^{(k)} и εit\varepsilon_{it} имеют ненулевые конечные четвёртые моменты распределения;
    4. случайные ошибки имеют нулевое условное мат. ожидание: E(εitxi1(1),,xi1(k),,xiT(1),,xiT(k),μi)=0; E(\varepsilon_{it} | x_{i1}^{(1)}, \dots, x_{i1}^{(k)}, \dots, x_{iT}^{(1)}, \dots, x_{iT}^{(k)}, \mu_i) = 0;
    5. с вероятностью единица в модели отсутствует чистая мультиколлинеарность;
    6. E(μixi1(1),,xi1(k),,xiT(1),,xiT(k))=E(μi)=0. E(\mu_i | x_{i1}^{(1)}, \dots, x_{i1}^{(k)}, \dots, x_{iT}^{(1)}, \dots, x_{iT}^{(k)}) = E(\mu_i) = 0. Другими словами, регрессоры не должны быть коррелированы с ненаблюдаемыми эффектами μi\mu_i.
    Положив νit=μi+εit\nu_{it} = \mu_i + \varepsilon_{it}, можно перейти к модели yit=β1xit(1)++βkxit(k)+νit,t=1,T. y_{it} = \beta_1 x_{it}^{(1)} + \dots + \beta_k x_{it}^{(k)} + \nu_{it}, \qquad t = \overline{1,T}. В ней все регрессоры экзогенны, поэтому параметры могут быть состоятельно оценены обычным МНК.
  71. Как выбрать модель для анализа панельных данных?
    Для простых линейных регрессионных моделей должны соблюдаться 5 свойств:
    1. линейность;
    2. экзогенность;
    3. гомоскедастичность и отсутствие автокорреляции;
    4. независимые переменные являются детерминированными;
    5. отсутствует мультиколлинеарность.
    Если условия 2 или 3 не выполняются, стоит отдать предпочтение моделям FE/RE.

    Выбирая между FE и RE, стоит обращать внимание на следующее:

    • является ли индивидуальная особенность постоянным или случайным эффектом?
    • тест Хаусмана — позволяет оценить экзогенность факторов модели.
  72. Тест Хаусмана

    Тест Хаусмана позволяет проверить некоррелированность регрессоров xitx_{it} и случайного эффекта: именно это отличает FE и RE.

    Гипотезы:
    • H0H_0: оценки RE являются состоятельными;
    • H1H_1: оценки RE являются несостоятельными.
    Тестовая статистика: (β^FEβ^RE)T(V^(β^FE)V^(β^RE))1(β^FEβ^RE)T, \left( \widehat \beta_\mbox{FE} - \widehat \beta_\mbox{RE} \right)^T \left( \widehat V(\widehat \beta_\mbox{FE}) - \widehat V(\widehat \beta_\mbox{RE}) \right)^{-1} \left( \widehat \beta_\mbox{FE} - \widehat \beta_\mbox{RE} \right)^T, где V^(β^)\widehat V(\widehat \beta) — оценка ковариационной матрицы вектора β^\widehat \beta.

    Эта статистика имеет асимптотическое распределение χ2\chi^2 с количеством степеней свободы, равным рангу матрицы V^(β^FE)V^(β^RE)\widehat V(\widehat \beta_\mbox{FE}) - \widehat V(\widehat \beta_\mbox{RE}).

  73. Определение: дерево решений
    Дерево принятия решений — средство поддержки принятия решений. Структура дерева:
    • в узлах записаны признаки, по которым различаются случаи;
    • на рёбрах записаны признаки, от которых зависит целевая функция;
    • в листьях записаны значения целевой функции;
  74. Задачи дерева принятия решений
    • Классификация — распределение данных на группы близких друг к другу наблюдений.
    • Регрессия — нахождение связи между зависимой и независимой переменными.
  75. Какой алгоритм используется для построения бинарного дерева решений?
    Алгоритм CART (classification and regression trees). Описание:
    • выбор условия остановки (количество узлов, наблюдений в узле, величина критерия);
    • выбор условия для разделения выборки;
    • разделение выборки относительно условия;
    • повторение пп. 2 и 3 до соблюдения условия остановки;
    • создание дерева.
  76. Постановка условий в узлах дерева решений
    Можно минимизировать ошибку. Возможные критерии:
    • средняя квадратическая ошибка: H(Qm)=1nmyQm(yym)2, H(Q_m) = \frac{1}{n_m} \sum\limits_{y\in Q_m}^{} (y - \overline y_m)^2, где ym=1nmyQmy; \overline y_m = \frac{1}{n_m} \sum\limits_{y \in Q_m}^{} y;
    • средняя абсолютная ошибка.
    Цель: минимизация ошибки для двух листьев: H(Q1)+H(Q2)min. H(Q_1) + H(Q_2) \to \min. Если делать в лоб, то асимптотика такая:
    • всего признаков DD, всего объектов NN;
    • всего сплитов DND * N, всего подсчётов на каждом сплите NN;
    • суммарно N2DN^2 D.
    Если значений слишком много, можно сделать так:
    • сортируем по признаку — Nlog2NN \log_2 N;
    • считаем критерии — NN;
    • суммарно NDlog2N+ND=ND(1+log2N)N D \log_2 N + ND = N D(1 + \log_2 N).
    В качестве критерия также можно взять индекс Джини: Gini(D)=1i=1kpi2, \operatorname{Gini}(D) = 1 - \sum\limits_{i=1}^{k} p_i^2, где pip_i — относительная частота класса ii в исходной выборке.
    Тогда цель — минимизировать показатель индекса Джини для узла: Ginisplit(D)=n1nGini(D1)+n2nGini(D2), \operatorname{Gini}_\mbox{split}(D) = \frac{n_1}{n} \operatorname{Gini}(D_1) + \frac{n_2}{n} \operatorname{Gini}(D_2), где n1n_1 и n2n_2 — количество элементов в каждом наборе.
  77. Каковы гиперпараметры решающего дерева?
    1. Максимальная глубина дерева;
    2. критерий ветвления;
    3. величина критерия ветвления;
    4. максимальное число семплов в листе дерева; и так далее.
  78. Какая основная проблема дерева решений?
    Основной проблемой дерева решений является склонность к переобучению.
  79. Из-за чего происходит переобучение дерева решений?
    В процессе построения дерева решений могут создаваться слишком сложные конструкции, которые недостаточно полно представляют данные.
  80. Как можно повысить обобщающую способность слабых моделей?
    Повысить обобщающую способность слабых моделей можно при помощи ансамблирования. Есть три основных метода:
    • стекинг — параллельное обучение разнородных моделей, аггрегация их предсказаний;
    • бэггинг — параллельное обучение однородных моделей, аггрегация их предсказаний;
    • бустинг — последовательное обучение однородных моделей, каждая минимизирует ошибку предыдущей.
  81. Основная идея бэггинга; пример деревьев решений
    Усреднить большое количество зашумлённых, но приблизительно несмещённых моделей, уменьшив дисперсию.
    Состоит из двух шагов:
    • bootstrapping — сэмплирование kk объектов из исходной выборки с возвращением. В результате получаем подвыборку размера kk, в которой некоторые объекты встречаются несколько раз, а некоторые — ни разу.
    • aggregating — усреднение предсказаний. Результат: предсказания одиночных моделей усредняются, давая итоговый ответ a(xi)=1Mi=1Mai(xi), a(x_i) = \frac{1}{M} \sum\limits_{i=1}^{M} a_i (x_i), где ai(xi)a_i(x_i) — предсказание ii-ой модели.
  82. Случайный лес
    Случайный лес представляет из себя ансамбль (бэггинг), каждая модель которого является деревом решений.

    На этапе бутстрапинга каждому дереву достаётся Xi=N\abs{X_i} = N объектов, причём мощность всей обучающей выборки XX равна X=N\abs{X} = N.

    На этапе обучения дерева решений во время разбиения признак выбирается не из всего множества признаков, а из его случайного подмножества.

    Если pp — количество признаков, то:
    • для классификации обычно выбирают случайные p\sqrt{p} признаков;
    • для регрессии — p/3p / 3 признаков.
  83. Преимущества и недостатки случайного леса
    Преимущества:
    • высокая точность предсказаний;
    • нечувствительность к выбросам;
    • параллелизуемость;
    • невозможность переобучить;
    • простота реализации.
    Недостатки:
    • неумение экстраполировать: СЛ не сможет вернуть ранее невиданное значение;
    • плохо работает, когда много разреженных признаков (например, тесты);
    • большой размер модели, требует много памяти.
  84. Определение: временной ряд
    Временным рядом называют последовательность y1,,ytRy_1, \dots, y_t \in \mathbb{R} наблюдений некоторого признака (случайной величины) в последовательные моменты времени.
  85. Определение: уровень временного ряда
    Уровнем временного ряда называют отдельные наблюдения временного ряда.
  86. Определение: длина временного ряда
    Длиной временного ряда называют количество nn входящих в него уровней.
  87. Классификация временных рядов
    Признак классификации Виды временного ряда
    Как уровни выражают состояние явлений во времени
    1. Интервальные ряды
    2. Моментные ряды
    В зависимости от качественной особенности изучаемого явления
    1. Абсолютные величины
    2. Относительные величины
    3. Средние величины
    В зависимости от расстояния между уровнями
    1. Равноотстоящие по времени уровни
    2. Неравноотстоящие по времени уровни
    В зависимости от наличия тенденции изучаемого процесса
    1. Стационарные ряды
    2. Нестационарные ряды
  88. Каковы требования к построению временного ряда?
    1. Периодизация развития.
    2. Сопоставимость.
    3. Соответствие величины временных интервалов интенсивности изучаемых процессов.
    4. Упорядоченность числовых уровней рядов динамики во времени.
    5. Однородность данных.
    6. Устойчивость тенденции.
    7. Полнота данных.
  89. Аддитивная модель временного ряда
    yt=T+S+C+E,t=1,n, y_t = T + S + C + E, \qquad t = \overline{1,n}, где
    • TT — тренд;
    • SS — сезонная компонента;
    • CC — циклическая компонента;
    • EE — случайная компонента.
  90. Мультипликативная модель временного ряда
    yt=TSCE,t=1,n, y_t = T \cdot S \cdot C \cdot E, \qquad t = \overline{1,n}, где
    • TT — тренд;
    • SS — сезонная компонента;
    • CC — циклическая компонента;
    • EE — случайная компонента.
  91. Типы трендов временного ряда
    • Тренд среднего.
    • Тренд дисперсии (гетероскедастичность).
    • Тренд автокорреляции и автоковариации.
    Основные виды трендов:
    • Полиномиальный тренд: yt=a0+a1t++aptp. \overline y_t = a_0 + a_1 t + \dots + a_p t^p. Для p=1p = 1 имеем линейный тренд.
    • Экспоненциальный тренд: yt=ea0ea1teaptp. \overline y_t = e^{a_0} \cdot e^{a_1 t} \cdot \ldots \cdot e^{a_p t^p}.
    • Гармонический тренд: yt=Rcos(ωt+φ). \overline y_t = R \cos (\omega t + \varphi).
    • Тренд, выраженный логистической функцией: yt=k1+beat. \overline y_t = \frac{k}{1 + b e^{-at}}.
  92. Этапы анализа временных рядов
    1. Графическое поведение и описание временного ряда.
    2. Выделение и удаление закономерных (неслучайных) составляющих временного ряда:
      • трендов;
      • сезонных составляющих;
      • циклических составляющих.
    3. Сглаживание и фильтрация: удаление низко- или высокочастотных составляющих временного ряда.
    4. Исследование случайной составляющей временного ряда; построение и проверка адекватности математической модели для её описания.
    5. Прогнозирование развития изучаемого процесса на основе имеющегося временного ряда.
    6. Исследование взаимосвязи между различными временными рядами.
  93. Задача прогнозирования временного ряда
    Рассмотрим временной ряд y1,,yt,ytR. y_1, \dots, y_t, \qquad y_t \in \mathbb{R}.
    Задача прогнозирования: найти функцию fTf_T такую, что yT+hfT(yT,,y1,h)y^T+hT, y_{T + h} \approx f_T(y_T, \dots, y_1, h) \equiv \widehat y_{T + h | T}, где h1,Hh \in \overline{1,H}, а HH — горизонт планирования.
  94. Определение: предсказательный интервал
    Предсказательным интервалом называют интервал, в котором предсказываемая величина окажется с вероятностью не меньше заданной.
  95. Определение: стационарный временной ряд
    Временной ряд называют стационарным, если для любого ss совместное распределение yt,,yt+sy_t, \dots, y_{t+s} не зависит от tt, то есть его свойства не зависят от времени.
  96. У временного ряда есть тренд. Следует ли из этого нестационарность?
    Да.
  97. У временного ряда есть сезонность. Следует ли из этого нестационарность?
    Да.
  98. У временного ряда есть цикличность. Следует ли из этого нестационарность?
    Нет.
  99. Определение: эргодичность
    Эргодичность — свойство, позволяющее для оценки математических ожиданий использовать усреднения по времени (по реализации).
    Мы хотим оценить математическое ожидание. Мы должны взять всевозможные значения в один и тот же момент времени tt, но у нас таких нет; вместо этого у нас есть значения в другие моменты времени. Эргодичность означает, что если у нас достаточно длинная реализация, то можно заменить усреднение по множеству усреднением по времени.
  100. Достаточное условие эргодичности стационарного процесса
    Для того, чтобы стационарный процесс был эргодичным, достаточно выполнения следующего условия: 1ni=1nγ(i)n0. \frac{1}{n} \sum\limits_{i=1}^{n} \gamma(i) \limto{n \to \infty} 0.
    Что такое гамма...
  101. Определение: дифференцирование ряда
    Дифференцирование ряда — переход к попарным разностям его соседних значений: y1,,yTy2,,yT, y_1, \dots, y_T \mapsto y_2', \dots, y_T', где yt=ytyt1. y_t' = y_t - y_{t-1}.
    Дифференцированием можно стабилизировать среднее значение ряда и избавиться от тренда и сезонности.
    Дифференцирование может применяться несколько раз.
  102. Определение: сезонное дифференцирование
    Сезонное дифференцирование ряда: y1,,yTys+1,,yT, y_1, \dots, y_T \mapsto y_{s+1}', \dots, y_T', где yt=ytyts. y_t' = y_t - y_{t-s}.
    Дифференцированием можно стабилизировать среднее значение ряда и избавиться от тренда и сезонности.
    Дифференцирование может применяться несколько раз.
  103. Определение: ложная регрессия
    Ложная регрессия — ситуация, когда между объясняющей и зависимой переменными в действительности нет причинно‐следственной связи, однако коэффициент корреляции между ними по модулю близок к единице, а уравнение, описывающее их взаимосвязь, с высокой точностью соответствует данным.
  104. Когда может возникать ложная регрессия?
    Ложная регрессия может вызывать в случае работы с временными рядами, которые характеризуются наличием тренда (детерминированного или стохастического) или нестационарностью.
  105. Как можно избавиться от ложной регрессии?
    От ложной регрессии можно избавиться, например, дифференцированием ряда.
  106. Определение: ESS
    ESS — объяснённая регрессионной моделью часть: ESS=i=1n(y^iy)2. ESS = \sum\limits_{i=1}^{n} {(\widehat y_i - \overline y)}^2.
  107. Определение: RSS
    RSS (Residual Sum of Squares) — сумма квадратов разниц между фактическими и предсказанными линейной регрессией значениями зависимой переменной: RSS=i=1n(yiy^i)2=i=1nei. RSS = \sum\limits_{i=1}^{n} {(y_i - \widehat y_i)}^2 = \sum\limits_{i=1}^{n} e_i. Отвечает за необъяснённую регрессионной моделью часть.
  108. Определение: TSS
    Общая сумма квадратов (TSS) равна сумме объяснённой (ESS) и необъяснённой (RSS) регрессионной моделью частей: TSS=ESS+RSS, TSS = ESS + RSS, где
    • TSSTSS (Total sum of squares) — общая сумма квадратов: TSS=i=1n(yiy)2; TSS = \sum\limits_{i=1}^{n} {(y_i - \overline y)}^2;
    • ESSESS (Explained sum of squares) — объяснённая регрессией сумма квадратов: ESS=i=1n(y^iy)2; ESS = \sum\limits_{i=1}^{n} {(\widehat y_i - \overline y)}^2;
    • RSSRSS (Residual sum of squares) — сумма квадратов остатков: RSS=i=1n(yiy^i)2. RSS = \sum\limits_{i=1}^{n} {(y_i - \widehat y_i)}^2. Отвечает за необъяснённую регрессией часть.
  109. Определение: коэффициент детерминации R2R^2
    Коэффициент детерминации R2R^2 задаётся как R2=1RSSTSS=TSSRSSTSS=ESSTSS. R^2 = 1 - \frac{RSS}{TSS} = \frac{TSS - RSS}{TSS} = \frac{ESS}{TSS}. Его также можно представить в виде R2=ESSTSS=i=1n(y^iy)2i=1n(yiy)2==1ni=1n(y^iy)21ni=1n(yiy)2==var^(y^)var^(y). \begin{aligned} R^2 = \frac{ESS}{TSS} &= \frac{ \sum\limits_{i=1}^{n} {(\widehat y_i - \overline y)}^2 }{ \sum\limits_{i=1}^{n} {(y_i - \overline y)}^2 } = \\ &= \frac{ \frac{1}{n} \sum\limits_{i=1}^{n} {(\widehat y_i - \overline y)}^2 }{ \frac{1}{n} \sum\limits_{i=1}^{n} {(y_i - \overline y)}^2 } = \\ &= \frac{\widehat \var (\widehat y)}{\widehat \var (y)}. \end{aligned}
    Понятно, что R2[0,1]R^2 \in [0, 1].
  110. Чему равны значения β^1,β^2\widehat \beta_1, \widehat \beta_2, полученные в результате применения МНК?
    β^2=ycov^(x,y)var^(x),β^1=ycov^(x,y)var^(x)x. \begin{aligned} \widehat \beta_2 &= \phantom{\overline y -} \frac{\widehat \cov(x,y)}{\widehat \var(x)}, \\ \widehat \beta_1 &= \overline y - \frac{\widehat \cov(x,y)}{\widehat \var(x)} \overline x. \end{aligned}
  111. Для чего используются стандартные ошибки МНК-оценок β^1\widehat \beta_1 и β^2\widehat \beta_2?
    Стандартные ошибки se(β^1)\se(\widehat \beta_1) и se(β^2)\se(\widehat \beta_2) используются для проверки гипотез: например, они используются для проверки гипотезы о независимости переменных xx и yy в КЛМПР.
  112. Что такое уровень значимости α\alpha?
    Уровнем значимости α\alpha называют вероятность ошибки первого рода, то есть вероятность отклонить проверяемую гипотезу при условии, что в действительности эта гипотеза верна.
  113. Определение: pp-значение
    pp-значением (pp-value) называют такой уровень значимости, при котором тестируемая гипотеза находится на грани между отвержением и принятием.
    Другими словами, если pp-значение меньше заданного уровня значимости α\alpha, то нулевая гипотеза H0H_0 отвергается.
  114. Чему равны МНК-оценки коэффициентов регрессии в КЛММР?
    Зададим матрицу регрессоров и вектор МНК-оценок коэффициентов модели: X=(x1(1)x1(2)x1(k)x2(1)x2(2)x2(k)xn(1)xn(2)xn(k)),β^=(β^1β^2β^k). X = \begin{pmatrix} x_1^{(1)} & x_1^{(2)} & \dots & x_1^{(k)} \\ x_2^{(1)} & x_2^{(2)} & \dots & x_2^{(k)} \\ \vdots & \vdots & \ddots & \vdots \\ x_n^{(1)} & x_n^{(2)} & \dots & x_n^{(k)} \end{pmatrix}, \qquad \widehat \beta = \begin{pmatrix} \widehat \beta_1 \\ \widehat \beta_2 \\ \vdots \\ \widehat \beta_k \end{pmatrix}. Тогда β^=(XTX)1XTy, \widehat \beta = (X^T X)^{-1} X^T y, где yy — вектор значений зависимой переменной: y=(y1y2yn). y = \begin{pmatrix} y_1 \\ y_2 \\ \vdots \\ y_n \end{pmatrix}.
  115. Последствия гетероскедастичности
    • МНК-оценки останутся несмещёнными.
    • МНК-оценки перестанут быть эффективными.
    • Стандартные ошибки коэффициентов окажутся смещёнными и неэффективными.
  116. Определение: логистическая функция
    Функция F(x)=11+ex F(x) = \frac{1}{1 + e^{-x}} называется логистической.
  117. Определение: логит
    Логит — функция, обратная к логистической: logitp=lnp1p. \logit p = \ln \frac{p}{1 - p}.
  118. Определение: логит-модель
    Логит-модель: P(yi=1)=11+e(β1+β2x). P(y_i = 1) = \frac{1}{1 + e^{-(\beta_1 + \beta_2 x)}}.
  119. Какой метод используется для оценки логит-модели?
    Для оценки логит-модели используется метод максимального правдоподобия:
    • строят функцию правдоподобия: L(y1,,yn)=yi=1P(yi=1)yi=0P(yi=0)==yi=1(11+e(β1+β2x))yiyi=0(11e(β1+β2x))1yi; \begin{aligned} L(y_1, \dots, y_n) &= \prod_{y_i = 1} P(y_i = 1) \cdot \prod_{y_i = 0} P(y_i = 0) = \\ &= \prod_{y_i = 1} \left( \frac{1}{1 + e^{-(\beta_1 + \beta_2 x)}} \right)^{y_i} \cdot \prod_{y_i = 0} \left( \frac{1}{1 - e^{-(\beta_1 + \beta_2 x)}} \right)^{1 - y_i}; \end{aligned}
    • берут от неё логарифм: lnL(y1,,yn)=i=1nyiln(11+e(β1+β2x))+i=1n(1yi)ln(11e(β1+β2x)); \ln L(y_1, \dots, y_n) = \sum\limits_{i=1}^{n} y_i \ln \left( \frac{1}{1 + e^{-(\beta_1 + \beta_2 x)}} \right) + \sum\limits_{i=1}^{n} (1 - y_i) \ln \left( \frac{1}{1 - e^{-(\beta_1 + \beta_2 x)}} \right);
    • для получения оценок вычисляют производные по β1,β2\beta_1, \beta_2 и приравнивают их к нулю.
  120. Определение: пробит-модель
    Пробит-модель: P(Yi=1)=Φ(β1+β2xi(2)++βkxi(k)), P(Y_i = 1) = \Phi(\beta_1 + \beta_2 x_i^{(2)} + \dots + \beta_k x_i^{(k)}), где Φ\Phi — функция стандартного нормального распределения: Φ(x)=12πexp(x22). \Phi(x) = \frac{1}{\sqrt{2 \pi}} \exp\left(- \frac{x^2}{2}\right).
  121. Общая формула обобщённой линейной модели
    F(Y)=B0+B1X1++BNXN+ε, F(Y) = B_0 + B_1 X_1 + \dots + B_N X_N + \varepsilon, где F(Y)F(Y) — функция связи.
  122. Определение: функция связи
    Функция связи — функция F(Y)F(Y), преобразующая распределение зависимой переменной так, что:
    • оно принимает значение от -\infty до \infty;
    • связь зависимой переменной с регрессорами линейна.
  123. Определение: accuracy (точность) и error rate (доля ошибок)
    Accuracy (точность) — величина, отражающая долю правильно спрогнозированных классов среди всех образцов: Accuracy=TP+TNTP+FP+TN+FN. \operatorname{Accuracy} = \frac{TP + TN}{TP + FP + TN + FN}. Error rate задаётся как Error rate=1Accuracy. \operatorname{Error\ rate} = 1 - \operatorname{Accuracy}.
  124. Определение: precision
    Precision — величина, характеризующая долю правильно предсказанных положительных классов среди всех образцов, которые модель спрогнозировала положительно: Precision=TPTP+FP. \operatorname{Precision} = \frac{TP}{TP + FP}.
  125. Определение: recall (TPR)
    Recall (True positive rate) — величина, отражающая долю правильно предсказанных положительных классов среди всех реальных положительных образцов: Recall=TPTP+FN. \operatorname{Recall} = \frac{TP}{TP + FN}.
  126. Определение: FPR
    False positive rate — величина, отражающая долю ошибочно классифицированных отрицательных классов относительно всех отрицательных результатов: FPR=FPFP+TN. \operatorname{FPR} = \frac{FP}{FP + TN}.
  127. Определение: TNR
    True negative rate — величина, показывающая, насколько хорошо модель классифицирует отрицательные примеры: TNR=TNFP+TN. \operatorname{TNR} = \frac{TN}{FP + TN}.
  128. Главная гипотеза (предпосылка) ансамблевых методов
    Когда «слабые» модели корректно объединены, можно получить более точные результаты.
  129. Виды ансамблей (3 шт.)
    • Бэггинг — параллельное обучение однородных моделей, аггрегация их предсказаний;
    • Бустинг — последовательное обучение однородных моделей, каждая минимизирует ошибку предыдущей.
    • Стекинг — параллельное обучение разнородных моделей, аггрегация их предсказаний;
  130. Бэггинг
    Пусть DD — обучающая выборка размера nn.

    Создадим mm бутстреп-выборок DiD_i размера nn путём выборки из DD равномерно с возвратом.

    Процесс генерации подвыборок с помощью равномерного сэмплирования с возвращением называют бутстрепом (bootstrap).
    Известно, что в этом случае ожидаемая доля уникальных элементов в каждой бутстреп-выборке DiD_i составляет 11/e0.631 - 1/e \approx 0.63.

    Далее, на каждой бутстреп-выборке DiD_i обучим модель при помощи алгоритма bb, получим модели bi(x)=b(x,Di). b_i(x) = b(x, D_i).

    Для получения окончательного предсказания a(x)a(x) усредняем предсказания моделей bi(x)b_i(x): a(x)=1mi=1mbi(x). a(x) = \frac{1}{m} \sum\limits_{i=1}^{m} b_i(x).

  131. Определение: бустинг
    Бустинг — ансамблевый метод, в котором однородные модели обучаются последовательно.
  132. Чем отличаются бэггинг и бустинг?
    • В случае бэггинга базовые алгоритмы учатся независимо и параллельно.
    • В случае бустинга обучение происходит последовательно.
  133. Градиентный бустинг
    Пусть стоит задача распознавания объектов из многомерного пространства XX с пространством меток YY.

    Строим обучающую выборку размера nn {xi}i=1nX, \left\{ x_i \right\}_{i=1}^n \subset X, каждому элементу которой соответствует истинное значение метки: {yi}i=1nY. \left\{ y_i \right\}_{i=1}^n \subset Y. Построим распознающий оператор, который как можно более точно сможет предсказывать метки для каждого нового объекта xXx \in X.

    Пусть H\mathcal{H} — семейство базовых алгоритмов: H:={h=h(x,a):XY    aA}, \mathcal{H} := \left\{ h = h(x, a): X \to Y \; | \; a \in A \right\}, где AA — множество параметров. Каждый базовый алгоритм hm(x):=h(x,am)Hh_m(x) := h(x, a_m) \in \mathcal{H} определяется некоторым вектором параметров amAa_m \in A.

    Будем искать финальный алгоритм классификации в виде следующей композиции: FM(x)=i=1Mbih(x,ai),biR,  aiA. F_M(x) = \sum\limits_{i=1}^{M} b_i h(x, a_i), \qquad b_i \in \mathbb{R}, \; a_i \in A. Пусть L(yi,F(xi))L(y_i, F(x_i)) — функция потерь. Требуется минимизировать ошибку: Q=i=1nL(yi,FM(xi))min. Q = \sum\limits_{i=1}^{n} L(y_i, F_M(x_i)) \to \min.

    Фактически QQ представляет из себя мат. ожидание функции потерь на обучающей выборке.

    Для начала обучим базовую модель на обучающей выборке: a1=arg minaAi=1nL(yi,h(xi,a)). a_1 = \argmin_{a \in A} \sum\limits_{i=1}^{n} L(y_i, h(x_i, a)). Тогда F1(x)=h(x,a1). F_1(x) = h(x, a_1).

    Следующие слагаемые будем строить жадно. Предположим, что построен классификатор Fm1F_{m-1} длины m1m-1. Будем строить классификатор Fm(x)=Fm1(x)+bmh(x,am),bmR,  amA. F_m(x) = F_{m-1}(x) + b_m h(x, a_m), \qquad b_m \in \mathbb{R}, \; a_m \in A. Его ошибка: Qm=i=1nL(yi,Fm(xi))==i=1nL(yi,Fm1(xi)+h(xi,am)). \begin{aligned} Q_m &= \sum\limits_{i=1}^{n} L(y_i, F_m(x_i)) = \\ &= \sum\limits_{i=1}^{n} L(y_i, F_{m-1}(x_i) + h(x_i, a_m)). \end{aligned}

    Возникает вопрос: как искать ama_m?

    Для этого будем использовать градиентный спуск — метод нахождения локального минимума функции при помощи движения вдоль антиградиента. С его помощью будем обучать следующую модель так, чтобы она уменьшала ошибку предыдущего классификатора Fm1(x)F_{m-1}(x).

    Градиент — вектор, направленный в сторону максимального изменения функции. Градиент функции ошибки помогает определить, как изменение того или иного параметра влияет на итоговое значение функции ошибки. Антиградиент показывает направление, в котором функция ошибки убывает быстрее всего.

    Разложим функцию потерь L(yi,Fm1(xi)+h(xi,a))L(y_i, F_{m-1}(x_i) + h(x_i, a)) в ряд Тейлора в окрестности точки (yi,Fm1(xi))(y_i, F_{m-1}(x_i)): L(yi,Fm1(xi)+h(xi,a))L(yi,Fm1(xi))+(Lm1(xi)+h(xi,a)Fm1(xi))L(yi,z)zz=Fm1(xi)==L(yi,Fm1(xi))+h(xi,a)L(yi,z)zz=Fm1(xi). \begin{aligned} L(y_i, F_{m-1}(x_i) + h(x_i, a)) &\approx L(y_i, F_{m-1}(x_i)) + \left( \cancel{L_{m-1}(x_i)} + h(x_i, a) - \cancel{F_{m-1}(x_i)} \right) \left. \frac{\partial L(y_i, z)}{\partial z} \right|_{z = F_{m-1}(x_i)} = \\ &= L(y_i, F_{m-1}(x_i)) + h(x_i, a) \left. \frac{\partial L(y_i, z)}{\partial z} \right|_{z = F_{m-1}(x_i)}. \end{aligned}

    Найдём градиент функции потерь в этой точке: L(yi,Fm1(xi)+h(xi,a))h(xi,a)=L(yi,z)zz=Fm1(xi). \frac{\partial L(y_i, F_{m-1}(x_i) + h(x_i, a))}{\partial h(x_i, a)} = \left. \frac{\partial L(y_i, z)}{\partial z} \right|_{z = F_{m-1}(x_i)}. Следовательно, антиградиент равен rmi:=L(yi,z)zz=Fm1(xi). r_{mi} := - \left. \frac{\partial L(y_i, z)}{\partial z} \right|_{z = F_{m-1}(x_i)}.

    Обучим модель h(x,a)h(x, a) на обучающей выборке {(xi,rmi)}i=1n\left\{ (x_i, r_{mi}) \right\}_{i=1}^n: am=arg minaAi=1nL(rmi,h(xi,a)). a_m = \argmin_{a \in A} \sum\limits_{i=1}^{n} L(r_{mi}, h(x_i, a)). Далее, оптимизируем величину шага в направлении антиградиента: bm=arg minaRi=1nL(yi,Fm1(xi)+bh(xi,am)). b_m = \argmin_{a \in \mathbb{R}} \sum\limits_{i=1}^{n} L(y_i, F_{m-1}(x_i) + b h(x_i, a_m)). Задача выше одномерная.

    В итоге получаем, что Fm(x)=Fm1(x)+bmh(x,am). F_m(x) = F_{m-1}(x) + b_m h(x, a_m).

  134. Определение: темп обучения для градиентного бустинга

    Одним из способов предотвращения переобучения является настройка скорости обучения (learning rate) η(0,1]\eta \in (0, 1].

    Чем ниже learning rate, тем медленнее мы движемся в направлении антиградиента. Если η\eta мало, то шанс пропустить локальный минимум ниже, но придётся больше времени затратить на сходимость, особенно в случае выхода на плато.

  135. Определение: параметры модели; пример
    Параметры модели — обычные параметры, которые настраиваются в процессе обучения модели на данных.
    Веса в линейной регрессии.
  136. Определение: гиперпараметры модели; пример
    Гиперпараметры модели — характеристики модели, которые фиксируются до начала обучения.
    • Глубина дерева решений.
    • Значение силы регуляризации в линейной модели: L=yXw2+Cw2minw; \mathcal{L} = \abs{y - Xw}^2 + C\abs{w}^2 \to \min_{w}; здесь ww — параметр, а CC — гиперпараметр.
    • Learning rate для градиентного спуска.
  137. Как подбирают гиперпараметры?
    GridSearch (перебор по сетке) — метод подбора оптимальных гиперпараметров для модели путём перебора всех возможных комбинаций значений гиперпараметров из заданного набора:
    • для каждого гиперпараметра фиксируются возможные значения;
    • перебираются всевозможные комбинации значений различных гиперпараметров, на каждой из которых модель обучается и тестируется;
    • выбирается комбинация, на которой модель показывает лучшее качество.
    RandomSearch — метод, при котором для каждого гиперпараметра задаётся распределение, из которого выбирается его значение, и комбинация гиперпараметров составляется семплированием из соответствующих распределений.
    Существуют также другие методы поиска:
    1. байесовская оптимизация;
    2. Tree-structured Parzen Estimator (TPE);
    3. Population Based Training (PBT).
  138. Сравнение методов Grid Search и Random Search
    Grid Search — сильные стороны:
    • самый простой для понимания и реализации;
    • тривиально распараллеливается.
    Grid Search — слабые стороны:
    • не использует результаты других итераций;
    • ограничен в выборе, заданном сеткой;
    • долго работает, если совершает последовательный переход по сетке.
    Random Search — сильные стороны:
    • случайный перебор позволяет находить оптимальные гиперпараметры эффективнее, чем Grid Search;
    • тривиально распараллеливается.
    Random Search — слабые стороны:
    • не использует результаты других итераций;
    • ограничен в выборе заданным распределением, хотя и не так жёстко, как Grid Search.
  139. Определение: кросс-валидация
    Кросс-валидация — процедура для оценки качества работы модели.
  140. Виды кросс-валидации
    1. Hold-out — выборка делится на две части: обучающую и тестовую.
      При разделении выборки необходимо перемешивать данные, чтобы не столкнуться со случаем, когда модель при обучении не столкнулась с целым классом входных данных.
      Если датасет изначально содержит 800 строк данных о котятах и 200 строк данных о щенятах, то, поделив датасет как 800/200, модель не обучится на данных о щенятах.
    2. k-fold:
      1. фиксируется некоторое целое число kk, меньшее чем число семплов (обычно 5-10);
      2. датасет разбивается на kk одинаковых наборов, называемых фолдами;
      3. производится kk итераций, на каждой из которой модель обучается на k1k-1 фолдах и тренируется на оставшемся:
    3. Стратификация — метод разделения полученных данных на отдельные группы (слои, страты) в зависимости от выбранного стратифицирующего фактора (чаще всего пропорционального).
      Пусть есть выборка, в которой содержатся данные 3-х классов A,B,CA, B, C, причём все три класса распределены одинаково (то есть по 33.3\approx 33.3%).

      Предположим, что две трети данных используются для обучения, а оставшаяся треть — для теста.

      Может возникнуть следующая ситуация:
      • train: распределение классов 38%/28%/34%;
      • test: распределение классов 24%/44%/32%.
      В итоге получаем модель, плохо обученную для последующего применения, так как на практике оба класса встречаются одинаково часто.
  141. Планирование инвестиций: постановка задачи
    Нужно инвестировать CC денежных единиц в течение nn лет.

    План состоит в покупке акций в начале года и продаже их в конце того же года. Накопленные деньги (или их часть) могут быть инвестированы в начале следующего года. Прибыль от инвестиций зависит от mm условий рынка: вероятность и прибыль (pi,ri)(p_i, r_i).

    Сформулируем задачу в виде модели ДП:
    1. этап ii соответствует ii-му году инвестирования;
    2. альтернативы на каждом этапе — суммы реальных инвестиций yiy_i;
    3. состояние системы jj на каждом этапе ii — доступные для инвестирования средства xix_i.
    Пусть fi(t)f_i(t) — максимальная ожидаемая сумма денежных средств за годы от ii до nn, при условии, что в начале года ii имеется сумма xix_i.