回归分析(Regression)专题

从基础到实践,深入理解预测建模的核心技术

什么是回归分析?

回归分析是一种统计方法,用于研究因变量(目标)与一个或多个自变量(特征)之间的关系。 它广泛应用于经济学、金融、医学、工程和机器学习等领域,用于预测、趋势分析和因果推断。

核心目标:建立一个数学模型,用以预测连续型输出值。

常见的回归类型

简单线性回归示例(JavaScript实现)

以下是一个用原生 JavaScript 实现的最小二乘法线性回归演示:

// 示例数据:[x, y]

const data = [

  [1, 2], [2, 3], [3, 5], [4, 4], [5, 6]

];



function linearRegression(data) {

  const n = data.length;

  let sumX = 0, sumY = 0, sumXY = 0, sumXX = 0;



  for (let i = 0; i < n; i++) {

    sumX += data[i][0];

    sumY += data[i][1];

    sumXY += data[i][0] * data[i][1];

    sumXX += data[i][0] * data[i][0];

  }



  const slope = (n * sumXY - sumX * sumY) / (n * sumXX - sumX * sumX);

  const intercept = (sumY - slope * sumX) / n;



  return { slope, intercept };

}



const model = linearRegression(data);

console.log(`y =  $ {model.slope.toFixed(2)}x +  $ {model.intercept.toFixed(2)}`);

// 输出:y = 0.90x + 1.30

应用场景

评估回归模型的指标