|
2 weeks ago | |
---|---|---|
.. | ||
solution | 3 weeks ago | |
README.md | 2 weeks ago | |
assignment.md | 3 weeks ago | |
notebook.ipynb | 3 weeks ago |
README.md
Scikit-learnを使った回帰モデルの構築:4つの方法で回帰を学ぶ
インフォグラフィック作成者:Dasani Madipalli
講義前クイズ
このレッスンはRでも利用可能です!
はじめに
これまでに、回帰とは何かを、今回のレッスン全体で使用するカボチャの価格データセットを用いて探求しました。また、Matplotlibを使ってデータを可視化しました。
これからは、機械学習における回帰についてさらに深く学んでいきます。可視化はデータを理解するのに役立ちますが、機械学習の真の力は「モデルのトレーニング」にあります。モデルは過去のデータを基にトレーニングされ、データの依存関係を自動的に捉え、新しいデータ(モデルがこれまで見たことのないデータ)の結果を予測することができます。
このレッスンでは、基本的な線形回帰 と 多項式回帰 の2種類の回帰について、これらの手法の背後にある数学とともに学びます。これらのモデルを使用して、異なる入力データに基づいてカボチャの価格を予測できるようになります。
🎥 上の画像をクリックすると、線形回帰の概要を説明する短い動画をご覧いただけます。
このカリキュラム全体を通じて、数学の知識が最小限であることを前提とし、他分野から来た学生にも理解しやすいように工夫しています。注釈、🧮 数式の説明、図解、その他の学習ツールに注目してください。
前提条件
これまでに、今回取り上げるカボチャデータの構造について理解しているはずです。このレッスンの_notebook.ipynb_ファイルには、事前にロードされ、クリーンアップされたデータが含まれています。このファイルでは、カボチャの価格が新しいデータフレームに1ブッシェルあたりで表示されています。このノートブックをVisual Studio Codeのカーネルで実行できることを確認してください。
準備
データをロードする目的を思い出してください。
- カボチャを買うのに最適な時期はいつか?
- ミニチュアカボチャ1ケースの価格はどれくらいか?
- 半ブッシェルバスケットで買うべきか、それとも1 1/9ブッシェルボックスで買うべきか?
このデータをさらに掘り下げてみましょう。
前回のレッスンでは、Pandasデータフレームを作成し、元のデータセットの一部を取り込み、価格をブッシェル単位で標準化しました。しかし、その結果、約400のデータポイントしか得られず、秋の月に限定されてしまいました。
このレッスンに付属するノートブックに事前にロードされたデータを確認してください。このデータは事前にロードされ、初期の散布図が月ごとのデータを示すようにプロットされています。データをさらにクリーンアップすることで、データの性質についてもう少し詳しく知ることができるかもしれません。
線形回帰直線
レッスン1で学んだように、線形回帰の目的は次のような直線をプロットすることです:
- 変数間の関係を示す。変数間の関係を明らかにする
- 予測を行う。新しいデータポイントがその直線に対してどこに位置するかを正確に予測する
最小二乗回帰では、この種の直線を描くのが一般的です。「最小二乗」とは、回帰直線の周囲にあるすべてのデータポイントを二乗して合計することを意味します。この最終的な合計値ができるだけ小さいことが理想的です。なぜなら、エラー(または「二乗誤差」)の数を少なくしたいからです。
これは、すべてのデータポイントからの累積距離が最小となる直線をモデル化したいからです。また、方向ではなく大きさに注目するために、項を二乗してから合計します。
🧮 数学を見せて!
この直線は、最適な直線 と呼ばれ、次の式で表されます:
Y = a + bX
X
は「説明変数」、Y
は「従属変数」です。直線の傾きはb
、切片(X = 0
のときのY
の値)はa
です。まず、傾き
b
を計算します。インフォグラフィック作成者:Jen Looperつまり、カボチャデータの元の質問「月ごとにカボチャ1ブッシェルの価格を予測する」に関連付けると、
X
は価格、Y
は販売月を指します。
Y
の値を計算します。もし約4ドルを支払っているなら、それは4月に違いありません!インフォグラフィック作成者:Jen Looperこの直線を計算する数学は、傾きと切片に依存します。計算方法については、Math is Funのウェブサイトで確認できます。また、この最小二乗計算機を使って、数値の値が直線にどのように影響するかを観察してください。
相関
もう1つ理解しておくべき用語は、与えられたXおよびY変数間の相関係数です。散布図を使用すると、この係数をすぐに視覚化できます。データポイントがきれいな直線状に散らばっているプロットは高い相関を持ちますが、データポイントがXとYの間でどこにでも散らばっているプロットは低い相関を持ちます。
良い線形回帰モデルは、最小二乗回帰法を使用して回帰直線を引いた場合に、1に近い(0よりも)高い相関係数を持つものです。
✅ このレッスンに付属するノートブックを実行し、月と価格の散布図を確認してください。カボチャ販売における月と価格のデータは、散布図の視覚的解釈によると、高い相関を持っているように見えますか?それとも低い相関を持っていますか?Month
の代わりに、より細かい尺度(例:年の中の日数、つまり年初からの日数)を使用するとどう変わりますか?
以下のコードでは、データをクリーンアップし、次のようなデータフレームnew_pumpkins
を取得したと仮定します:
ID | Month | DayOfYear | Variety | City | Package | Low Price | High Price | Price |
---|---|---|---|---|---|---|---|---|
70 | 9 | 267 | PIE TYPE | BALTIMORE | 1 1/9 bushel cartons | 15.0 | 15.0 | 13.636364 |
71 | 9 | 267 | PIE TYPE | BALTIMORE | 1 1/9 bushel cartons | 18.0 | 18.0 | 16.363636 |
72 | 10 | 274 | PIE TYPE | BALTIMORE | 1 1/9 bushel cartons | 18.0 | 18.0 | 16.363636 |
73 | 10 | 274 | PIE TYPE | BALTIMORE | 1 1/9 bushel cartons | 17.0 | 17.0 | 15.454545 |
74 | 10 | 281 | PIE TYPE | BALTIMORE | 1 1/9 bushel cartons | 15.0 | 15.0 | 13.636364 |
データをクリーンアップするコードは
notebook.ipynb
にあります。前回のレッスンと同じクリーンアップ手順を実行し、次の式を使用してDayOfYear
列を計算しました:
day_of_year = pd.to_datetime(pumpkins['Date']).apply(lambda dt: (dt-datetime(dt.year,1,1)).days)
線形回帰の背後にある数学を理解したところで、回帰モデルを作成し、どのカボチャのパッケージが最も良い価格を持つかを予測できるか見てみましょう。ホリデー用のカボチャ畑を運営する人は、この情報を使ってカボチャパッケージの購入を最適化したいと考えるかもしれません。
相関を探る
🎥 上の画像をクリックすると、相関の概要を説明する短い動画をご覧いただけます。
前回のレッスンで、月ごとの平均価格が次のように見えることを確認しました:

これは、何らかの相関があることを示唆しており、Month
とPrice
、またはDayOfYear
とPrice
の関係を予測する線形回帰モデルをトレーニングすることを試みる価値があります。以下は、後者の関係を示す散布図です:

corr
関数を使用して相関を確認してみましょう:
print(new_pumpkins['Month'].corr(new_pumpkins['Price']))
print(new_pumpkins['DayOfYear'].corr(new_pumpkins['Price']))
Month
では-0.15、DayOfMonth
では-0.17と、相関はかなり小さいようです。しかし、別の重要な関係がある可能性があります。異なるカボチャの品種に対応する価格の異なるクラスターがあるように見えます。この仮説を確認するために、各カボチャのカテゴリを異なる色でプロットしてみましょう。scatter
プロット関数にax
パラメータを渡すことで、すべてのポイントを同じグラフにプロットできます:
ax=None
colors = ['red','blue','green','yellow']
for i,var in enumerate(new_pumpkins['Variety'].unique()):
df = new_pumpkins[new_pumpkins['Variety']==var]
ax = df.plot.scatter('DayOfYear','Price',ax=ax,c=colors[i],label=var)

調査の結果、販売日よりも品種が価格全体に与える影響が大きいことが示唆されます。これを棒グラフで確認できます:
new_pumpkins.groupby('Variety')['Price'].mean().plot(kind='bar')

ここでは、特定のカボチャ品種「パイタイプ」に焦点を当て、日付が価格に与える影響を見てみましょう:
pie_pumpkins = new_pumpkins[new_pumpkins['Variety']=='PIE TYPE']
pie_pumpkins.plot.scatter('DayOfYear','Price')

corr
関数を使用してPrice
とDayOfYear
の相関を計算すると、約-0.27
の値が得られます。これは、予測モデルをトレーニングする意味があることを示しています。
線形回帰モデルをトレーニングする前に、データがクリーンであることを確認することが重要です。線形回帰は欠損値に対してうまく機能しないため、すべての空のセルを削除するのが理にかなっています:
pie_pumpkins.dropna(inplace=True)
pie_pumpkins.info()
別のアプローチとしては、空の値を対応する列の平均値で埋める方法があります。
単純線形回帰
🎥 上の画像をクリックすると、線形回帰と多項式回帰の概要を説明する短い動画をご覧いただけます。
線形回帰モデルをトレーニングするには、Scikit-learnライブラリを使用します。
from sklearn.linear_model import LinearRegression
from sklearn.metrics import mean_squared_error
from sklearn.model_selection import train_test_split
まず、入力値(特徴量)と期待される出力(ラベル)を別々のnumpy配列に分けます:
X = pie_pumpkins['DayOfYear'].to_numpy().reshape(-1,1)
y = pie_pumpkins['Price']
入力データに対して
reshape
を実行する必要があることに注意してください。これは、線形回帰パッケージが正しく理解できるようにするためです。線形回帰は、入力として2次元配列を期待します。この配列の各行は、入力特徴量のベクトルに対応します。今回の場合、入力が1つしかないため、配列の形状はN×1(Nはデータセットのサイズ)である必要があります。
次に、データをトレーニングデータセットとテストデータセットに分割します。これにより、トレーニング後にモデルを検証できます:
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=0)
最後に、実際の線形回帰モデルのトレーニングは、わずか2行のコードで完了します。LinearRegression
オブジェクトを定義し、fit
メソッドを使用してデータに適合させます:
lin_reg = LinearRegression()
lin_reg.fit(X_train,y_train)
fit
後のLinearRegression
オブジェクトには、回帰のすべての係数が含まれています。これらは.coef_
プロパティを使用してアクセスできます。今回の場合、係数は1つだけで、約-0.017
になるはずです。これは、価格が時間とともに少しずつ下がることを意味しますが、その変化は非常に小さく、1日あたり約2セント程度です。また、回帰がY軸と交差する点はlin_reg.intercept_
を使用してアクセスでき、今回の場合は約21
になります。これは、年初の価格を示しています。
モデルの精度を確認するには、テストデータセットで価格を予測し、予測値と期待値がどれだけ近いかを測定します。これは、平均二乗誤差(MSE)メトリクスを使用して行うことができます。MSEは、期待値と予測値のすべての差の二乗の平均です。
pred = lin_reg.predict(X_test)
mse = np.sqrt(mean_squared_error(y_test,pred))
print(f'Mean error: {mse:3.3} ({mse/np.mean(pred)*100:3.3}%)')
私たちのエラーは約2つのポイントに集中しており、これは約17%です。あまり良くありません。モデルの品質を示すもう1つの指標は決定係数で、以下のように取得できます:
score = lin_reg.score(X_train,y_train)
print('Model determination: ', score)
値が0の場合、モデルは入力データを考慮せず、最悪の線形予測器として機能します。これは単に結果の平均値を示します。値が1の場合、すべての期待される出力を完全に予測できることを意味します。私たちの場合、決定係数は約0.06で、非常に低い値です。
また、テストデータと回帰線をプロットして、私たちのケースで回帰がどのように機能するかをよりよく理解することができます:
plt.scatter(X_test,y_test)
plt.plot(X_test,pred)

多項式回帰
線形回帰のもう一つのタイプは多項式回帰です。変数間に線形関係がある場合もありますが(例えば、カボチャの体積が大きいほど価格が高い)、これらの関係が平面や直線としてプロットできない場合もあります。
✅ こちらに多項式回帰が適用できるデータの例があります。
日付と価格の関係をもう一度見てみましょう。この散布図は必ずしも直線で分析されるべきだと思いますか?価格は変動する可能性がありますよね?この場合、多項式回帰を試すことができます。
✅ 多項式は、1つ以上の変数と係数を含む数学的表現です。
多項式回帰は、非線形データにより適合する曲線を作成します。私たちの場合、入力データにDayOfYear
変数の二乗を含めることで、年内のある点で最小値を持つ放物線をデータに適合させることができます。
Scikit-learnには、データ処理の異なるステップを組み合わせるための便利なパイプラインAPIが含まれています。パイプラインは推定器のチェーンです。私たちの場合、まずモデルに多項式特徴を追加し、その後回帰をトレーニングするパイプラインを作成します:
from sklearn.preprocessing import PolynomialFeatures
from sklearn.pipeline import make_pipeline
pipeline = make_pipeline(PolynomialFeatures(2), LinearRegression())
pipeline.fit(X_train,y_train)
PolynomialFeatures(2)
を使用することで、入力データからすべての二次多項式を含めることができます。私たちの場合、これは単にDayOfYear
2を意味しますが、2つの入力変数XとYがある場合、これによりX2、XY、Y2が追加されます。必要に応じて、より高次の多項式を使用することもできます。
パイプラインは、元のLinearRegression
オブジェクトと同じ方法で使用できます。つまり、パイプラインをfit
し、その後predict
を使用して予測結果を取得できます。以下はテストデータと近似曲線を示すグラフです:

多項式回帰を使用することで、MSEをわずかに低下させ、決定係数をわずかに向上させることができますが、大きな改善はありません。他の特徴を考慮する必要があります!
最小のカボチャ価格がハロウィンの周辺で観察されることがわかります。これをどのように説明しますか?
🎃 おめでとうございます!パイカボチャの価格を予測するモデルを作成しました。同じ手順をすべてのカボチャの種類に対して繰り返すことができますが、それは面倒です。次に、モデルにカボチャの種類を考慮する方法を学びましょう!
カテゴリカル特徴
理想的な世界では、同じモデルを使用して異なるカボチャの種類の価格を予測できるようにしたいです。しかし、Variety
列はMonth
のような列とは異なり、非数値の値を含んでいます。このような列はカテゴリカルと呼ばれます。
🎥 上の画像をクリックすると、カテゴリカル特徴の使用に関する短いビデオ概要が表示されます。
以下は、種類ごとの平均価格がどのように依存しているかを示しています:

種類を考慮するためには、まずそれを数値形式に変換する必要があります。これをエンコードと呼びます。いくつかの方法があります:
- シンプルな数値エンコードは、異なる種類のテーブルを作成し、そのテーブル内のインデックスで種類名を置き換えます。これは線形回帰には最適ではありません。なぜなら、線形回帰はインデックスの実際の数値を取り、それを結果に追加し、係数で乗算するからです。この場合、インデックス番号と価格の関係は明らかに非線形であり、特定の順序でインデックスを配置しても同じです。
- ワンホットエンコードは、
Variety
列を4つの異なる列に置き換えます。それぞれの列は、対応する行が特定の種類である場合に1
を含み、それ以外の場合は0
を含みます。これにより、線形回帰では4つの係数が作成され、それぞれのカボチャの種類に対して「開始価格」(または「追加価格」)を表します。
以下のコードは、種類をワンホットエンコードする方法を示しています:
pd.get_dummies(new_pumpkins['Variety'])
ID | FAIRYTALE | MINIATURE | MIXED HEIRLOOM VARIETIES | PIE TYPE |
---|---|---|---|---|
70 | 0 | 0 | 0 | 1 |
71 | 0 | 0 | 0 | 1 |
... | ... | ... | ... | ... |
1738 | 0 | 1 | 0 | 0 |
1739 | 0 | 1 | 0 | 0 |
1740 | 0 | 1 | 0 | 0 |
1741 | 0 | 1 | 0 | 0 |
1742 | 0 | 1 | 0 | 0 |
ワンホットエンコードされた種類を入力として線形回帰をトレーニングするには、X
とy
データを正しく初期化するだけです:
X = pd.get_dummies(new_pumpkins['Variety'])
y = new_pumpkins['Price']
残りのコードは、上記で使用した線形回帰をトレーニングするコードと同じです。これを試してみると、平均二乗誤差はほぼ同じですが、決定係数が大幅に向上することがわかります(約77%)。さらに正確な予測を得るためには、他のカテゴリカル特徴や数値特徴(例えばMonth
やDayOfYear
)を考慮する必要があります。1つの大きな特徴配列を作成するには、join
を使用できます:
X = pd.get_dummies(new_pumpkins['Variety']) \
.join(new_pumpkins['Month']) \
.join(pd.get_dummies(new_pumpkins['City'])) \
.join(pd.get_dummies(new_pumpkins['Package']))
y = new_pumpkins['Price']
ここではCity
やPackage
タイプも考慮しており、これによりMSEは2.84(10%)、決定係数は0.94になります!
すべてをまとめる
最良のモデルを作成するためには、上記の例から得られたカテゴリカル特徴(ワンホットエンコード)と数値データを組み合わせて多項式回帰を使用します。以下は完全なコードです:
# set up training data
X = pd.get_dummies(new_pumpkins['Variety']) \
.join(new_pumpkins['Month']) \
.join(pd.get_dummies(new_pumpkins['City'])) \
.join(pd.get_dummies(new_pumpkins['Package']))
y = new_pumpkins['Price']
# make train-test split
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=0)
# setup and train the pipeline
pipeline = make_pipeline(PolynomialFeatures(2), LinearRegression())
pipeline.fit(X_train,y_train)
# predict results for test data
pred = pipeline.predict(X_test)
# calculate MSE and determination
mse = np.sqrt(mean_squared_error(y_test,pred))
print(f'Mean error: {mse:3.3} ({mse/np.mean(pred)*100:3.3}%)')
score = pipeline.score(X_train,y_train)
print('Model determination: ', score)
これにより、ほぼ97%の決定係数とMSE=2.23(約8%の予測誤差)を得ることができます。
モデル | MSE | 決定係数 |
---|---|---|
DayOfYear 線形 |
2.77 (17.2%) | 0.07 |
DayOfYear 多項式 |
2.73 (17.0%) | 0.08 |
Variety 線形 |
5.24 (19.7%) | 0.77 |
すべての特徴 線形 | 2.84 (10.5%) | 0.94 |
すべての特徴 多項式 | 2.23 (8.25%) | 0.97 |
🏆 素晴らしい!1つのレッスンで4つの回帰モデルを作成し、モデルの品質を97%まで向上させました。回帰の最終セクションでは、カテゴリを決定するためのロジスティック回帰について学びます。
🚀チャレンジ
このノートブックでいくつかの異なる変数をテストし、相関がモデルの精度にどのように対応するかを確認してください。
講義後のクイズ
復習と自己学習
このレッスンでは線形回帰について学びました。他にも重要な回帰の種類があります。ステップワイズ、リッジ、ラッソ、エラスティックネット技術について読んでみてください。さらに学ぶための良いコースはスタンフォード統計学習コースです。
課題
免責事項:
この文書は、AI翻訳サービス Co-op Translator を使用して翻訳されています。正確性を追求しておりますが、自動翻訳には誤りや不正確な部分が含まれる可能性があることをご承知ください。元の言語で記載された文書が正式な情報源とみなされるべきです。重要な情報については、専門の人間による翻訳を推奨します。この翻訳の使用に起因する誤解や誤った解釈について、当方は一切の責任を負いません。