Матричные вычисления в Mathcad

d7c8102a

Линейная регрессия



13.2.1. Линейная регрессия



Самый простой и наиболее часто используемый вид регрессии — линейная. Приближение данных (xi,yi) осуществляется линейной функцией у(х) = =b+ах. На координатной плоскости (х,у) линейная функция, как известно, представляется прямой линией (Рисунок 13.14). Еще линейную регрессию часто называют методом наименьших квадратов, поскольку коэффициенты а и b вычисляются из условия минимизации суммы квадратов ошибок |b+axi-yi|.

Примечание 1
Примечание 1

Чаще всего такое же условие ставится и в других задачах регрессии, т. е. приближения массива данных (xi,yi) другими зависимостями у(х). Исключение рассмотрено в листинге 13.9.



Примечание 2
Примечание 2

Различным расчетным аспектам реализации метода наименьших квадратов, в большинстве случаев сводящимся к решению систем алгебраических линейных уравнений, была посвящена значительная часть главы 8.





Для расчета линейной регрессии в Mathcad имеются два дублирующих друг друга способа. Правила их применения представлены в листингах 13.7 и 13.8. Результат обоих листингов получается одинаковым (Рисунок 13.14):

  • line (х, у) — вектор из двух элементов (b,а) коэффициентов линейной регрессии b+ах;
  •  intercept (х, у) — коэффициент ь линейной регрессии;
  •  slope (x,y) — коэффициент а линейной регрессии:

  •  х — вектор действительных данных аргумента;
  •  у — вектор действительных данных значений того же размера.



Содержание раздела