単純線形回帰の優しい入門
身近な例、明確な数学、視覚的なデモを通じて線形回帰を理解しましょう。
なぜ回帰?公正な比較の物語
5歳の子どもと20歳の大人が同じ語彙テストで同じ点数を取ったとします。
あなたは彼らが同じ言語能力を持っているというでしょうか?
おそらく違うでしょう。あなたは自然に年齢を考慮します。5歳でその高い点数を取るのは印象的です。20歳なら?多分ただの平均でしょう。
あなたが直感的に行ったのは背景要因をコントロールすることです。年齢を考慮してスコアを「回帰」させました。
統計学における回帰は、この直感を形式化します。予測や比較をするときに背景変数を調整することを可能にします。
単純線形回帰とは何か?
単純線形回帰は最も基本的な回帰です。2つの変数の関係をモデル化します:
- 1つの説明変数 — 既知のもの(年齢など)
- 1つの応答変数 — 予測したいもの(語彙スコアなど)
関係は直線であると仮定されます。
回帰式は:
ここで:
- :切片 — 直線がy軸と交わる点
- :傾き — が1増加したときのの変化量
- :誤差項 — では説明できないの部分
最適な直線の見つけ方
データ点が与えられたとき、それらに最もよく適合する直線を見つけたいと思います。
どうやって?観測されたと予測されたの間の二乗誤差の和を最小化することによって:
以下を最小化するとを選びます:
この方法は**最小二乗法(OLS)**と呼ばれます。
ステップバイステップ:傾きと切片の計算
最適な直線を見つけるために、以下の公式を使います:
1. 傾き を計算:
2. 次に切片 :
ここでとはそれぞれとデータの平均です。
視覚的直感:散布図 + 回帰直線
データ点の散布図を想像してください。
今度はそれらを通る直線を想像します — 点をできるだけ均等にバランスさせる直線です。
それが回帰直線です。からを「予測」し、全体の二乗誤差を最小化します。
インタラクティブデモ
データ点を調整して、回帰直線がライブで更新される様子を試してみましょう。1つの点が直線を傾けることができることに注目してください、特にそれが他の点から遠い場合は。
Simple Linear Regression Interactive Demo
y = β₀ + β₁x
0.000
Where the line crosses the y-axis
0.000
How much y changes when x increases by 1
Interactive Demo
Try adjusting data points and watch the regression line update live. Notice how the slope and intercept change!
まとめ
回帰は公正な比較と情報に基づいた予測に関するものです。単純線形回帰は以下でこれを行います:
- 明確な数学的公式
- 意味のある傾きと切片
- 関係をモデル化する視覚的方法
そしてそれはすべて非常に人間的なアイデアから始まります:「比較する前に背景を考慮しましょう」