Перейти до вмісту

Непараметрична регресія

Матеріал з Вікіпедії — вільної енциклопедії.

Непараметрична регресія — форма регресійного аналізу, де предиктор не набуває заздалегідь визначеної форми, але повністю побудований за допомогою інформації, отриманої з даних. Тобто, для взаємодії між предикторами й залежною змінною відсутнє параметричне рівняння. Для створення непараметричної моделі з таким самим рівнем невизначеності[en], як і параметрична модель, потрібен більший обсяг вибірки, оскільки дані мають забезпечувати як структуру моделі, так і оцінки параметрів.

Визначення

[ред. | ред. код]

Непараметрична регресія припускає таке співвідношення для заданих випадкових величин і :

де  — деяка детермінована функція. Лінійна регресія — це обмежений випадок непараметричної регресії, де  — лінійна функція даних. Іноді використовується дещо сильніше припущення про адитивний шум:

де випадкова величина  — це «шумовий член» із середнім значенням 0. Без припущення, що належить до певної параметричної родини функцій, неможливо отримати неупереджену оцінку для , проте більшість оцінок є узгодженими за відповідних умов.

Поширені алгоритми непараметричної регресії

[ред. | ред. код]

Це не вичерпний список непараметричних моделей для регресії:

Приклади

[ред. | ред. код]

Регресія на основі гаусових процесів (кригінг)

[ред. | ред. код]

У регресії на основі гаусових процесів, також відомій як кригінг, для кривої регресії передбачається гауссова апріорна ймовірність. Вважається, що похибки мають багатовимірний нормальний розподіл, а крива регресії оцінюється за її апостеріорною модою. Гауссова апріорна ймовірність може залежати від невідомих гіперпараметрів, які зазвичай оцінюються за допомогою емпіричного баєсівського методу[en]. Гіперпараметри зазвичай визначають ядро апріорної коваріації. У випадку, якщо ядро також має бути виведене непараметрично з даних, можна використати критичний фільтр[en].

Згладжувальні сплайни[en] інтерпретуються як апостеріорна мода гауссової регресії процесу.

Ядрова регресія

[ред. | ред. код]
Приклад кривої (червона лінія), що апроксимується невеликим набором даних (чорні точки) за допомогою непараметричної регресії з використанням гауссового ядрового згладжування. Рожева затінена ділянка ілюструє ядрову функцію, застосовану для отримання оцінки y для заданого значення x. Ядрова функція визначає вагу, надавану кожній точці даних при отриманні оцінки для цільової точки.

Ядрова регресія оцінює неперервну залежну змінну за обмеженим набором точок даних шляхом згортання розташування точок даних за допомогою ядрової функції[en] — приблизно кажучи, функція ядра визначає, як «розмити» вплив точок даних, щоб їхні значення можна було використати для прогнозування значень для сусідніх місць.

Дерева регресії

[ред. | ред. код]

Для прогнозування залежної змінної за даними можна застосувати алгоритми навчання з деревом рішень.[2] Хоча оригінальне формулювання дерева класифікації та регресії застосовувалося лише до прогнозування одновимірних даних, цю платформу можна використовувати для прогнозування багатовимірних даних, включно з часовими рядами.[3]

Див. також

[ред. | ред. код]

Примітки

[ред. | ред. код]
  1. Cherkassky, Vladimir; Mulier, Filip (1994). Cheeseman, P.; Oldford, R. W. (ред.). Statistical and neural network techniques for nonparametric regression. Selecting Models from Data. Lecture Notes in Statistics (англ.). New York, NY: Springer: 383—392. doi:10.1007/978-1-4612-2660-4_39. ISBN 978-1-4612-2660-4.
  2. Breiman, Leo; Friedman, J. H.; Olshen, R. A.; Stone, C. J. (1984). Classification and regression trees. Monterey, CA: Wadsworth & Brooks/Cole Advanced Books & Software. ISBN 978-0-412-04841-8.
  3. Segal, M.R. (1992). Tree-structured methods for longitudinal data. Journal of the American Statistical Association. American Statistical Association, Taylor & Francis. 87 (418): 407—418. doi:10.2307/2290271. JSTOR 2290271.

Література

[ред. | ред. код]

Посилання

[ред. | ред. код]