Студопедия
Новини освіти і науки:
МАРК РЕГНЕРУС ДОСЛІДЖЕННЯ: Наскільки відрізняються діти, які виросли в одностатевих союзах


РЕЗОЛЮЦІЯ: Громадського обговорення навчальної програми статевого виховання


ЧОМУ ФОНД ОЛЕНИ ПІНЧУК І МОЗ УКРАЇНИ ПРОПАГУЮТЬ "СЕКСУАЛЬНІ УРОКИ"


ЕКЗИСТЕНЦІЙНО-ПСИХОЛОГІЧНІ ОСНОВИ ПОРУШЕННЯ СТАТЕВОЇ ІДЕНТИЧНОСТІ ПІДЛІТКІВ


Батьківський, громадянський рух в Україні закликає МОН зупинити тотальну сексуалізацію дітей і підлітків


Відкрите звернення Міністру освіти й науки України - Гриневич Лілії Михайлівні


Представництво українського жіноцтва в ООН: низький рівень культури спілкування в соціальних мережах


Гендерна антидискримінаційна експертиза може зробити нас моральними рабами


ЛІВИЙ МАРКСИЗМ У НОВИХ ПІДРУЧНИКАХ ДЛЯ ШКОЛЯРІВ


ВІДКРИТА ЗАЯВА на підтримку позиції Ганни Турчинової та права кожної людини на свободу думки, світогляду та вираження поглядів



Контакти
 


Тлумачний словник
Авто
Автоматизація
Архітектура
Астрономія
Аудит
Біологія
Будівництво
Бухгалтерія
Винахідництво
Виробництво
Військова справа
Генетика
Географія
Геологія
Господарство
Держава
Дім
Екологія
Економетрика
Економіка
Електроніка
Журналістика та ЗМІ
Зв'язок
Іноземні мови
Інформатика
Історія
Комп'ютери
Креслення
Кулінарія
Культура
Лексикологія
Література
Логіка
Маркетинг
Математика
Машинобудування
Медицина
Менеджмент
Метали і Зварювання
Механіка
Мистецтво
Музика
Населення
Освіта
Охорона безпеки життя
Охорона Праці
Педагогіка
Політика
Право
Програмування
Промисловість
Психологія
Радіо
Регилия
Соціологія
Спорт
Стандартизація
Технології
Торгівля
Туризм
Фізика
Фізіологія
Філософія
Фінанси
Хімія
Юриспунденкция






Мультиколінеарність

1. Поняття мультиколінеарності, основні її ознаки та наслідки.

2. Алгоритм Фарара-Глобера.

3. Методи усунення мультиколінеарності.

 

1. Поняття мультиколінеарності,

основні її ознаки та наслідки

При розгляді лінійних економетричних моделей оцінки параметрів цих моделей знаходились методом найменших квадратів, при цьому на випадкову складову і незалежні змінні накладались ряд умов, і тільки при їх виконані можна використовувати метод найменших квадратів. Однією з таких умов є умова незалежності між собою незалежних (пояснювальних змінних).

Мультиколінеарність означає існування міцної лінійної залежності або сильної кореляції між двома чи більше незалежних (пояснювальних) змінних.

Будемо розглядати модель множинної регресії:

 

Розглянемо основні ознаки непевності мультиколінеарності:

1. Знаходять коефіцієнт множинної кореляції:

 

Також знаходять матрицю коефіцієнтів парної кореляції:

 

Кожен з з матриці описує тісноту зв’язку між змінними . Якщо серед коефіцієнтів парної кореляції є такі значення, які приблизно рівні множинному коефіцієнту кореляції – це свідчить про можливу наявність мультиколунеарності.

2. Знаходять визначник матриці , якщо він , то вважають, що існує повна мультиколінеарність, як що , тоді вважають, що мультиколунеарність відсутня.

3. Знаходять значення коефіцієнта детермінації:

 

Якщо його значення , але деякі оцінки параметрів моделі є статистично-незалежними, то можлива наявність мультиколінеарності.

Наслідки мультиколінеарності

· Падає тотожність оцінювання коефіцієнта множинної регресії, яка проявляється в наступному: помилки деяких конкретних оцінок стають занадто великими, вони можуть бути пов’язані між собою, дисперсія параметрів моделі різко збільшується.

· Оцінки параметрів можуть бути незначними через напевність їх взаємозв’язку з іншими параметрами, а не тому, що вони не мають впливу на пояснюючу змінну.

· Оцінки параметрів моделі стають досить чутливими до кількості спостережень, тобто вони можуть змінюватись в залежноств від об’єму вибірки.

 

2. Алгоритм Фарара-Глобера

Для встановлення наявності мультиколінеарності розроблені різні типи та алгоритми. Одним з них є алгоритм Фарара-Глобера – ций алгоритм дає змогу встановлювати наявність мультиколінеарності між всіма незалежними змінними, кожної незалежної змінної з рештою змінних і кожної пари незалежних змінних.

Цей алгоритм використовує три типи параметрів:

 

Нехай перевірка наявності мультиколінеарності між всіма змінними здійснюється ступним чином:

1. Нормалізують (стандартизують) змінні згідно формули:

 

2. Знаходять кореляційну матрицю нормалізованих змінних за формулою:

, де

– матриця нормалізованих значень вибірки.

3. Обчислюється визначник матриці R.

4. Вибирають критерій

 

Вважають, що цей критерій має розподіл з ступенями вільності.

5. Формулюють статистичні гіпотези:

Н0 – мультиколінеарність між змінними відсутня;

Н1– мультиколінеарність між змінними присутня;

За формулою знаходять фактичне значення критерію .

6. За таблицями знаходять теоретичне значення при ступенях вільності і задану у вигляді значимості .

Якщо , то приймається нульова гіпотеза і вважається, що мультиколінеарність між змінними відсутня.

Якщо , то приймається альтернативна гіпотеза і вважається, що мультиколінеарність між змінними присутня.

Перевірка наявності мультиколінеарності деякої змінної з іншими змінними здійснюється за допомогою F-критерію наступним чином:

1. Знаходять обернену матрицю до мтариці

2. Вибирають для кожної змінної F-критерій вигляд:

 

– це діагональні елементи матриці С вважають, що цей критерій Фішера з ступенями вільності.

3. Формулюють гіпотези

Н0 – змінна – не мультиколінеарна з іншими змінними;

Н1– змінна – мультиколінеарна з іншими змінними;

4. Знаходять фактичне значення критерію

5. За таблицею розподілу Фішера знаходять теоретичне знчення критерію , для ступенями вільності при рівні значимості .

6. Якщо , то вважають, що змінна – не мультиколінеарна з іншими змінними, тобто приймається нульова гіпотеза;

Якщо , то приймається альтернативна гіпотеза та вважають, що змінна мультиколінеарна з іншими змінними.

Для перевірки наявності колінеарності між кожною парою незалежних змінних використовують t-критерій наступним чином:

1. Для довільних змінних знаходять частинні коефіцієнти кореляції за формулою:

 

Частинні коефіцієнти кореляції - характеризують тісноту зв’язку між змінними за умови, що інші змінні не впливають на цей зв'язок, вони в основному менші за відповідні парні коефіцієнти кореляції, тому за значеннями парних коефіцієнтів кореляції не можна робити висновків про наявність мультиколінеарності між парними змінними .

2. Вибирають критерій , вважають, що він має t-розподіл з ступенями вільності.

3. Формулюють статистичні гіпотези:

Нульова гіпотеза:

Альтернативна гіпотеза:

4. Знаходять фактичне значення критерію

5. За таблицями t-розподілу знаходять теоретичне значення критерію , для і вибираємо .

6. Якщо , то змінні не мультиколінеарні між собою.

Якщо , то приймається альтернативна гіпотеза і змінні мультиколінеарні між собою.

 

3. Методи усунення мультиколінеарності

В залежності від того, для чого будується економетрична модель при наявності мультиколінеарності поступають одним із двох способів:

1. Якщо модель будується для прогнозування, то при великому значенні коефіцієнта детермінації ( ) і при умові зберігання залежності між змінними мультиколінеарність не усувають з моделі.

2. Також мета дослідження за допомогою економетричної моделі – це визначення міри впливу кожної незалежної змінної (фактору) на залежну змінну, тоді наявність колінеарності приводить до збільшення стандартних помилок, то це може приводити до неправильних висновків про вплив незалежних змінних на залежну, тоді мультиколінеарність з моделі потрібно усунути за допомогою одного із методів.

Основними методами усунення мультиколінеарності є:

1. Використання первинної інформації. Суть: використовуючи економічну теорію встановлюють вигляд залежності між деякими коефіцієнтами моделі, які відповідають тим змінним моделям, які є залежні між собою. Наприклад: нехай досліджується залежність споживання від доходу та багатства. І економетрична модель має вигляд:

, де

– споживання

– дохід

– багатство

Якщо її розглядати для певної групи сімей, для якої відомо з економічного аналізу , тоді цю модель можна записати у вигляді:

 

 

 

В отриманій моделі одна незалежна змінна , знайшовши оцінку параметра , отримаємо оцінку параметра .

2. Із економетричної моделі вилучають (викидають) незалежну змінну з великим значенням кореляції. Так в попередньому прикладі можна упустити , яка відповідає фактору багатства.

3. Змінюють специфікацію (вигляд) моделі – в модель включають додаткову пояснювальні змінні, які мають вплив на залежну змінну, а також можливо змінюють саму форму (формулу) залежності від незалежних змінних.

4. Збільшують кількість спостережень. При збільшенні кількості спостережень, особливо при збільшенні об’єму вибірки можливо в деяких цих спостереженнях мультиколінеарність може бути відсутньою, при чому збільшення об’єму вибірки зменшує оцінки похибок коефіцієнтів і тим самим збільшує їх статистичну значимість.

5. Перетворення змінних в моделі. Використовуючи зв'язок між економічними показниками (змінними), які є корельовано між собою намагаються здійснити їх перетворення так, щоб в новій отриманій моделі усунути цю кореляцію. Наприклад: нехай в моделі змінні та є корельовано між собою, тоді замість цієї моделі можна розглянути модель:

 

Отримана модель, в якій присутні відносні величини та .

 


Читайте також:

  1. Тема 3. Мультиколінеарність та її вплив на оцінки параметрів моделі




Переглядів: 8811

<== попередня сторінка | наступна сторінка ==>
Нелінійна регресія | Гетероскедастичність

Не знайшли потрібну інформацію? Скористайтесь пошуком google:

 

© studopedia.com.ua При використанні або копіюванні матеріалів пряме посилання на сайт обов'язкове.


Генерація сторінки за: 0.004 сек.