У зв'язку з тим, що наявність в моделі регресії автокорреляции між залишками моделі може привести до негативних результатів всього процесу оцінювання невідомих коефіцієнтів моделі, а саме до:
а) збільшення дисперсій оцінок параметрів моделі;
б) зміщення оцінок, отриманих за МНК;
в) зниження значущості оцінок параметрів,
автокорреляция залишків повинна бути усунена.
Основною причиною наявності випадкового члена в моделі є недосконалі знання про причини і взаємозв'язки, що визначають ту чи іншу значення залежної змінної. Тому властивості випадкових відхилень, в тому числі і автокорреляция, в першу чергу залежать від вибору формули залежності і складу пояснюють змінних.
Так як автокорреляция найчастіше викликається неправильної специфікації моделі, то необхідно, перш за все, скорегувати саму модель. Можливо, автокорреляция викликана відсутністю в моделі деякої важливої пояснює змінної. Слід спробувати визначити даний фактор і врахувати його в рівнянні регресії. Також можна спробувати змінити формулу залежності (наприклад, лінійну на гіперболічного і т. Д.).
Для простоти викладу AR (1) розглянемо модель парної лінійної регресії. Тоді спостереженнями t і (t - 1) відповідають формули: і.
Віднімемо від спостереження t співвідношення спостереження (t - 1), помножене на # 961 ;:
Застосуємо перетворення моделі:
Тоді в нових змінних модель набуде вигляду: в якому шокова змінна вже не спотворена автокореляцією.
Дане перетворення (D) відноситься до класу декорреляции операторів [7]. Він призводить до втрати першого спостереження (якщо ми не володіємо попереднім йому наглядом). Число ступенів свободи зменшиться на одиницю, що при великих вибірках не так істотно, але при малих може призвести до втрати ефективності. Ця проблема зазвичай долається за допомогою поправки Прайса-Вінстена.
Можна показати, що в разі автокорреляции залишків ковариационная матриця вектора випадкових відхилень має вигляд: