Рівняння регресії. Рівняння множинної регресії

Під час навчання студенти дуже часто стикаються з різноманітними рівняннями. Одне з них - рівняння регресії - розглянуто в даній статті. Такий тип рівняння застосовується спеціально для опису характеристики зв`язку між математичними параметрами. Даний вид рівності використовують в статистиці і економетрики.

Визначення поняття регресії

У математиці під регресією мається на увазі якась величина, що описує залежність середнього значення сукупності даних від значень іншої величини. Рівняння регресії показує як функції певної ознаки середнє значення іншої ознаки. Функція регресії має вигляд простого рівняння у = х, в якому у виступає залежною змінною, а х - незалежної (ознака-фактор). Фактично регресія виражатися як у = f (x).

Які бувають типи зв`язків між змінними

Загалом, виділяється два протилежних типу взаємозв`язку: кореляційний і регрессионная.

Перша характеризується рівноправним умовних змінних. В даному випадку достовірно не відомо, яка змінна залежить від іншої.

рівняння регресії

Якщо ж між змінними не спостерігається рівноправності і в умовах сказано, яка змінна пояснює, а яка - залежна, то можна говорити про наявність зв`язку другого типу. Для того щоб побудувати рівняння лінійної регресії, необхідно буде з`ясувати, який тип зв`язку спостерігається.

види регрессий

На сьогоднішній день виділяють 7 різноманітних видів регресії: гіперболічна, лінійна, множинна, нелінійна, парна, зворотна, логарифмічно лінійна.

рівняння лінійної регресії

Гіперболічна, лінійна і логарифмічна

Рівняння лінійної регресії застосовують в статистиці для чіткого пояснення параметрів рівняння. Воно виглядає як у = з + т * х + Е. Гіперболічне рівняння має вигляд правильної гіперболи у = з + т / х + Е. Логарифмічно лінійне рівняння виражає взаємозв`язок з допомогою логарифмічною функції: In у = In з + т * In x + In E.

Множинна і нелінійна

Два складніших виду регресії - це множинна і нелінійна. Рівняння множинної регресії виражається функцією у = f (х1 , х2 ...хз) + E. У даній ситуації у виступає залежною змінною, а х - пояснює. Мінлива Е - стохастична, вона включає вплив інших факторів в рівнянні. Нелінійне рівняння регресії трохи суперечливо. З одного боку, щодо врахованих показників воно не лінійне, а з іншого боку, в ролі оцінки показників воно лінійне.

рівняння множинної регресії

Зворотні і парні види регресій

Зворотній - це такий вид функції, який необхідно перетворити в лінійний вид. У самих традиційних прикладних програмах вона має вигляд функції у = 1 / с + т * х + Е. Парне рівняння регресії демонструє взаємозв`язок між даними в якості функції у = f (x) + Е. Точно так же, як і в інших рівняннях, у залежить від х, а Е - стохастичний параметр.



парне рівняння регресії

поняття кореляції

Це показник, який демонструє існування взаємозв`язку двох явищ або процесів. Сила взаємозв`язку виражається в якості коефіцієнта кореляції. Його значення коливається в рамках інтервалу [-1- + 1]. Негативний показник говорить про наявність зворотного зв`язку, позитивний - про прямий. Якщо коефіцієнт приймає значення, рівне 0, то взаємозв`язку немає. Чим ближче значення до 1 - тим сильніше зв`язок між параметрами, чим ближче до 0 - то менше.

методи

Кореляційні параметричні методи можуть оцінити тісноту взаємозв`язку. Їх використовують на базі оцінки розподілу для вивчення параметрів, що підкоряються закону нормального розподілу.

Параметри рівняння лінійної регресії необхідні для ідентифікації виду залежності, функції регресійного рівняння і оцінювання показників обраної формули взаємозв`язку. Як метод ідентифікації зв`язку використовується поле кореляції. Для цього всі існуючі дані необхідно зобразити графічно. У прямокутної двомірної системі координат необхідно нанести всі відомі дані. Так утворюється поле кореляції. Значення описує фактора відзначаються уздовж осі абсцис, в той час як значення залежного - уздовж осі ординат. Якщо між параметрами є функціональна залежність, вони шикуються в формі лінії.

У разі якщо коефіцієнт кореляції таких даних буде менше 30%, можна говорити про практично повну відсутність зв`язку. Якщо він знаходиться між 30% і 70%, то це говорить про наявність зв`язків середньої тісноти. 100% показник - свідчення функціонального зв`язку.

Нелінійне рівняння регресії так само, як і лінійне, необхідно доповнювати індексом кореляції (R).

Кореляція для множинної регресії

Коефіцієнт детермінації є показником квадрата множинної кореляції. Він говорить про тісноті взаємозв`язку представленого комплексу показників з досліджуваним ознакою. Він також може говорити про характер впливу параметрів на результат. Рівняння множинної регресії оцінюють за допомогою цього показника.



Для того щоб обчислити показник множинної кореляції, необхідно розрахувати його індекс.

парне лінійне рівняння регресії

Метод найменших квадратів

Даний метод є способом оцінювання факторів регресії. Його суть полягає в мінімізації суми відхилень в квадраті, отриманих внаслідок залежності фактора від функції.

Парне лінійне рівняння регресії можна оцінити за допомогою такого методу. Цей тип рівнянь використовують в разі виявлення між показниками парної лінійної залежності.

параметри рівнянь

Кожен параметр функції лінійної регресії несе певний сенс. Парне лінійне рівняння регресії містить два параметри: з і т. Параметр т демонструє середня зміна кінцевого показника функції у, за умови зменшення (збільшення) змінної х на одну умовну одиницю. Якщо змінна х - нульова, то функція дорівнює параметру с. Якщо ж змінна х не нульовий, то фактор з не несе в собі економічний сенс. Єдине вплив на функцію надає знак перед фактором с. Якщо там мінус, то можна сказати про уповільненому зміні результату в порівнянні з фактором. Якщо там плюс, то це свідчить про прискорене зміні результату.

параметри рівняння лінійної регресії

Кожен параметр, що змінює значення рівняння регресії, можна висловити через рівняння. Наприклад, фактор з має вигляд з = y - тх.

згруповані дані

Бувають такі умови задачі, в яких вся інформація групується за ознакою x, але при цьому для певної групи вказуються відповідні середні значення залежного показника. В такому випадку середні значення характеризують, яким чином змінюється показник, що залежить від х. Таким чином, згрупована інформація допомагає знайти рівняння регресії. Її використовують в якості аналізу взаємозв`язків. Однак у такого методу є свої недоліки. На жаль, середні показники досить часто піддаються зовнішнім коливанням. Дані коливання не є відображенням закономірності взаємозв`язку, вони всього лише маскують її «шум». Середні показники демонструють закономірності взаємозв`язку набагато гірше, ніж рівняння лінійної регресії. Однак їх можна застосовувати у вигляді бази для пошуку рівняння. Перемножая чисельність окремої сукупності на відповідну середню можна отримати суму у в межах групи. Далі необхідно підбити всі отримані суми і знайти кінцевий показник у. Трохи складніше проводити розрахунки з показником суми ху. У тому випадку якщо інтервали малі, можна умовно взяти показник х для всіх одиниць (в межах групи) однаковим. Слід перемножити його з сумою у, щоб дізнатися суму творів x на у. Далі все суми підбиваються разом і виходить загальна сума ху.

Множинне парне рівняння регресії: оцінка важливості зв`язку

Як розглядалося раніше, множинна регресія має функцію виду у = f (x1,x2,..., Xm) + E. Найчастіше таке рівняння використовують для вирішення проблеми попиту і пропозиції на товар, процентного доходу по викупленим акціям, вивчення причин і виду функції витрат виробництва. Її також активно застосовують в самих різноманітних макроекономічних дослідженнях і розрахунках, а ось на рівні мікроекономіки таке рівняння застосовують трохи рідше.

Основним завданням множинноїрегресії є побудова моделі даних, що містять велику кількість інформації, для того щоб в подальшому визначити, який вплив має кожен із чинників окремо і в їх загальної сукупності на показник, який необхідно змоделювати, і його коефіцієнти. Рівняння регресії може приймати найрізноманітніші значення. При цьому для оцінки взаємозв`язку зазвичай використовується два типи функцій: лінійна і нелінійна.

знайти рівняння регресії

Лінійна функція зображується у формі такого взаємозв`язку: у = а0 + a1х1 + а2х2,+ ... + amxm. При цьому а2, am, вважаються коефіцієнтами «чистої» регресії. Вони необхідні для характеристики середнього зміни параметра у зі зміною (зменшенням або збільшенням) кожного відповідного параметра х на одну одиницю, з умовою стабільного значення інших показників.

Нелінійні рівняння мають, наприклад, вид статечної функції у = ах1b1 х2b2...xmbm. В даному випадку показники b1, b2..... bm - називаються коефіцієнтами еластичності, вони демонструють, яким чином зміниться результат (на скільки%) при збільшенні (зменшенні) відповідного показника х на 1% і при стабільному показнику інших факторів.

Які фактори необхідно враховувати при побудові множинної регресії

Для того щоб правильно побудувати множинну регресію, необхідно з`ясувати, на які саме фактори слід звернути особливу увагу.

Необхідно мати певне розуміння природи взаємозв`язків між економічними факторами і модельований. Фактори, які необхідно буде включати, повинні відповідати наступним ознаками:

  • Повинні бути підвладні кількісному вимірюванню. Для того щоб використовувати фактор, що описує якість предмета, в будь-якому випадку слід надати йому кількісну форму.
  • Чи не має бути присутня интеркорреляций факторів, або функціональна взаємозв`язок. Такі дії найчастіше призводять до незворотних наслідків - система звичайних рівнянь стає не обумовленої, а це тягне за собою її ненадійність і нечіткість оцінок.
  • У разі існування величезного показника кореляції не існує способу для з`ясування ізольованого впливу факторів на остаточний результат показника, отже, коефіцієнти стають неінтерпретіруемимі.

методи побудови

Існує величезна кількість методів і способів, що пояснюють, яким чином можна вибрати чинники для рівняння. Однак всі ці методи будуються на відборі коефіцієнтів за допомогою показника кореляції. Серед них виділяють:

  • Спосіб виключення.
  • Спосіб включення.
  • Покроковий аналіз регресії.

Перший метод передбачає відсів всіх коефіцієнтів з сукупного набору. Другий метод включає введення безлічі додаткових чинників. Ну а третій - відсів факторів, які були раніше застосовані для рівняння. Кожен з цих методів має право на існування. У них є свої плюси і мінуси, але вони все по-своєму можуть вирішити питання відсіву непотрібних показників. Як правило, результати, отримані кожним окремим методом, досить близькі.

Методи багатовимірного аналізу

Такі способи визначення чинників базуються на розгляді окремих поєднань взаємозалежних ознак. Вони включають в себе дискримінантний аналіз, розпізнавання образів, спосіб головних компонент і аналіз кластерів. Крім того, існує також факторний аналіз, проте він з`явився внаслідок розвитку способу компонент. Всі вони застосовуються в певних обставинах, при наявності певних умов і факторів.



Увага, тільки СЬОГОДНІ!

Увага, тільки СЬОГОДНІ!