Що робити з мультіколлінеарності

слід було очікувати, мультиколінеарності сильна.

Важливо усвідомлювати, що в результаті мультіколлінеарності ми не можемо оцінити точне значення кожного з параметрів окремо. Однак якщо ми, наприклад, в регресії з таблиці 4.1 подивимося ковариационную матрицю оцінок коефіцієнтів:

24.00739 10.41840 -10.39384

10.41840 4.566967 -4.541984 -10.39384 -4.541984 4.521524

Можна звернути увагу, що оцінка дисперсії суми коефіцієнтів, які ми не можемо точно оцінити

D (β 1 + β 2) = D (β 1) + D (β 2) + 2 cov (β 1. β 2) = 4.57 + 4.52 + 2 (- 4.54) = 0.01получается, що

суму цих параметрів ми можемо оцінити досить точно (дисперсія дуже маленька). Отже, ми не можемо оцінити обидва коефіцієнта, але можемо оцінити або один з коефіцієнтів, або їх лінійну комбінацію. Велика частина методів боротьби з мультіколлінеарності на цьому і заснована.

Що робити, якщо є мультиколінеарності?

1) Нічого. Ряд дослідників вважає, що нічого страшного в тому, що коефіцієнти неточно оцінені, немає. Наприклад, якщо ми збираємося використовувати модель для прогнозування, то прогноз ми отримаємо хороший і за моделлю з мультіколлінеарності.

2) Змінити специфікацію моделі. Часто мультиколінеарності виникає через те, що модель неправильно побудована. Можна (а) просто викинути змінні, які залежать від інших. (Б) Відхилити змінні, перейти до логарифмам / першим різницям і т.д. Наприклад, як видно з нашого прикладу (таблиця 4.4), коли ми залишаємо тільки одну змінну з двох, модель тільки поліпшується (скоригований коефіцієнт детермінації зростає).

3) Чи збільшить вибірку. Додати даних з іншою структурою, де пояснюючі змінні не так сильно залежать один від одного. (Гарна ідея, але звідки їх взяти =)

3) Перейти до лінійної комбінації змінних. Це можна зробити по-

Схожі статті