Линейная регрессия
13.2.1. Линейная регрессия
Самый простой и наиболее часто используемый вид регрессии — линейная. Приближение данных (xi,yi) осуществляется линейной функцией у(х) = =b+ах. На координатной плоскости (х,у) линейная функция, как известно, представляется прямой линией (Рисунок 13.14). Еще линейную регрессию часто называют методом наименьших квадратов, поскольку коэффициенты а и b вычисляются из условия минимизации суммы квадратов ошибок |b+axi-yi|.
Примечание 1
Примечание 1
Чаще всего такое же условие ставится и в других задачах регрессии, т. е. приближения массива данных (xi,yi) другими зависимостями у(х). Исключение рассмотрено в листинге 13.9.
Примечание 2
Примечание 2
Различным расчетным аспектам реализации метода наименьших квадратов, в большинстве случаев сводящимся к решению систем алгебраических линейных уравнений, была посвящена значительная часть главы 8.
Для расчета линейной регрессии в Mathcad имеются два дублирующих друг друга способа. Правила их применения представлены в листингах 13.7 и 13.8. Результат обоих листингов получается одинаковым (Рисунок 13.14):
- line (х, у) — вектор из двух элементов (b,а) коэффициентов линейной регрессии b+ах;
- intercept (х, у) — коэффициент ь линейной регрессии;
- slope (x,y) — коэффициент а линейной регрессии:
- х — вектор действительных данных аргумента;
- у — вектор действительных данных значений того же размера.