You can not select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.
ML-For-Beginners/translations/ja/4-Classification/1-Introduction/README.md

17 KiB

分類の紹介

この4つのレッスンでは、古典的な機械学習の基本的な焦点である_分類_について探求します。アジアとインドの素晴らしい料理に関するデータセットを使い、さまざまな分類アルゴリズムを実践していきます。お腹が空いてきましたか

ほんのひとつまみ!

このレッスンでパンアジア料理を祝おう!画像提供: Jen Looper

分類は教師あり学習の一形態で、回帰技術と多くの共通点を持っています。機械学習がデータセットを使って値や名前を予測することに関するものであるならば、分類は一般的に_二値分類_と_多クラス分類_の2つのグループに分けられます。

分類の紹介

🎥 上の画像をクリックして動画を視聴: MITのJohn Guttagが分類を紹介

覚えておきましょう:

  • 線形回帰では、変数間の関係を予測し、新しいデータポイントがその線に対してどこに位置するかを正確に予測するのに役立ちました。例えば、_9月と12月でカボチャの価格がいくらになるか_を予測できました。
  • ロジスティック回帰では、「二値カテゴリ」を発見するのに役立ちました。この価格帯では、このカボチャはオレンジ色か、それともオレンジ色ではないか

分類では、さまざまなアルゴリズムを使用して、データポイントのラベルやクラスを決定する方法を見つけます。この料理データを使って、材料のグループを観察することで、その料理の起源を特定できるかどうかを見てみましょう。

講義前のクイズ

このレッスンはRでも利用可能です

はじめに

分類は、機械学習研究者やデータサイエンティストの基本的な活動の1つです。単純な二値値の分類「このメールはスパムかどうかから、コンピュータビジョンを使用した複雑な画像分類やセグメンテーションまで、データをクラスに分類し、それに関する質問をする能力は常に役立ちます。

科学的に言うと、分類手法は予測モデルを作成し、入力変数と出力変数の関係をマッピングできるようにします。

二値分類 vs. 多クラス分類

分類アルゴリズムが扱う二値問題と多クラス問題。インフォグラフィック提供: Jen Looper

データをクリーニングし、視覚化し、機械学習タスクの準備を始める前に、機械学習がデータを分類するためにどのように活用されるかについて少し学びましょう。

統計学に由来する古典的な機械学習を使用した分類では、smokerweightageなどの特徴を使用して、_X病を発症する可能性_を決定します。以前に行った回帰演習と同様の教師あり学習技術として、データにはラベルが付けられており、機械学習アルゴリズムはそのラベルを使用してデータセットのクラスまたは「特徴」を分類および予測し、それらをグループや結果に割り当てます。

料理に関するデータセットを想像してみてください。多クラスモデルではどのような質問に答えられるでしょうか?二値モデルではどのような質問に答えられるでしょうか?例えば、ある料理がフェヌグリークを使用する可能性があるかどうかを判断したい場合はどうでしょう?また、スターアニス、アーティチョーク、カリフラワー、ホースラディッシュが詰まった買い物袋を渡されたときに、典型的なインド料理を作れるかどうかを確認したい場合は?

クレイジーなミステリーバスケット

🎥 上の画像をクリックして動画を視聴。料理番組『Chopped』の全体の前提は「ミステリーバスケット」で、シェフたちがランダムな材料から料理を作らなければなりません。きっと機械学習モデルが役立ったでしょう

「分類器」にこんにちは

この料理データセットに関して私たちが尋ねたい質問は、実際には多クラスの質問です。なぜなら、扱うべき国別の料理がいくつもあるからです。材料のバッチが与えられた場合、これらの多くのクラスのうちどれにデータが適合するでしょうか?

Scikit-learnは、解決したい問題の種類に応じて、データを分類するためのさまざまなアルゴリズムを提供しています。次の2つのレッスンでは、これらのアルゴリズムのいくつかについて学びます。

演習 - データをクリーニングしてバランスを取る

このプロジェクトを開始する前の最初のタスクは、データをクリーニングし、バランスを取ることで、より良い結果を得ることです。このフォルダのルートにある空の_notebook.ipynb_ファイルから始めてください。

最初にインストールするのはimblearnです。これは、データのバランスをより良くするためのScikit-learnパッケージですこのタスクについては後で詳しく学びます

  1. imblearnをインストールするには、次のようにpip installを実行します:

    pip install imblearn
    
  2. データをインポートして視覚化するために必要なパッケージをインポートし、さらにimblearnからSMOTEをインポートします。

    import pandas as pd
    import matplotlib.pyplot as plt
    import matplotlib as mpl
    import numpy as np
    from imblearn.over_sampling import SMOTE
    

    これで、次にデータをインポートする準備が整いました。

  3. 次のタスクはデータをインポートすることです:

    df  = pd.read_csv('../data/cuisines.csv')
    

    read_csv()を使用すると、csvファイル_cusines.csv_の内容を読み取り、変数dfに配置します。

  4. データの形状を確認します:

    df.head()
    

    最初の5行は次のように表示されます

    |     | Unnamed: 0 | cuisine | almond | angelica | anise | anise_seed | apple | apple_brandy | apricot | armagnac | ... | whiskey | white_bread | white_wine | whole_grain_wheat_flour | wine | wood | yam | yeast | yogurt | zucchini |
    | --- | ---------- | ------- | ------ | -------- | ----- | ---------- | ----- | ------------ | ------- | -------- | --- | ------- | ----------- | ---------- | ----------------------- | ---- | ---- | --- | ----- | ------ | -------- |
    | 0   | 65         | indian  | 0      | 0        | 0     | 0          | 0     | 0            | 0       | 0        | ... | 0       | 0           | 0          | 0                       | 0    | 0    | 0   | 0     | 0      | 0        |
    | 1   | 66         | indian  | 1      | 0        | 0     | 0          | 0     | 0            | 0       | 0        | ... | 0       | 0           | 0          | 0                       | 0    | 0    | 0   | 0     | 0      | 0        |
    | 2   | 67         | indian  | 0      | 0        | 0     | 0          | 0     | 0            | 0       | 0        | ... | 0       | 0           | 0          | 0                       | 0    | 0    | 0   | 0     | 0      | 0        |
    | 3   | 68         | indian  | 0      | 0        | 0     | 0          | 0     | 0            | 0       | 0        | ... | 0       | 0           | 0          | 0                       | 0    | 0    | 0   | 0     | 0      | 0        |
    | 4   | 69         | indian  | 0      | 0        | 0     | 0          | 0     | 0            | 0       | 0        | ... | 0       | 0           | 0          | 0                       | 0    | 0    | 0   | 0     | 1      | 0        |
    
  5. このデータに関する情報を取得するには、info()を呼び出します:

    df.info()
    

    出力は次のようになります:

    <class 'pandas.core.frame.DataFrame'>
    RangeIndex: 2448 entries, 0 to 2447
    Columns: 385 entries, Unnamed: 0 to zucchini
    dtypes: int64(384), object(1)
    memory usage: 7.2+ MB
    

演習 - 料理について学ぶ

ここから作業がより興味深くなります。料理ごとのデータの分布を調べてみましょう。

  1. barh()を呼び出してデータを棒グラフとしてプロットします:

    df.cuisine.value_counts().plot.barh()
    

    料理データの分布

    料理の数は有限ですが、データの分布は均等ではありません。これを修正できます!その前に、もう少し探索してみましょう。

  2. 料理ごとに利用可能なデータ量を調べて印刷します:

    thai_df = df[(df.cuisine == "thai")]
    japanese_df = df[(df.cuisine == "japanese")]
    chinese_df = df[(df.cuisine == "chinese")]
    indian_df = df[(df.cuisine == "indian")]
    korean_df = df[(df.cuisine == "korean")]
    
    print(f'thai df: {thai_df.shape}')
    print(f'japanese df: {japanese_df.shape}')
    print(f'chinese df: {chinese_df.shape}')
    print(f'indian df: {indian_df.shape}')
    print(f'korean df: {korean_df.shape}')
    

    出力は次のようになります:

    thai df: (289, 385)
    japanese df: (320, 385)
    chinese df: (442, 385)
    indian df: (598, 385)
    korean df: (799, 385)
    

材料を発見する

ここでデータをさらに掘り下げ、料理ごとの典型的な材料を学びます。異なる料理間で混乱を引き起こす再発データをクリーニングする必要があります。この問題について学びましょう。

  1. Pythonでcreate_ingredient()という関数を作成し、材料のデータフレームを作成します。この関数は、役に立たない列を削除し、材料をそのカウントでソートすることから始めます:

    def create_ingredient_df(df):
        ingredient_df = df.T.drop(['cuisine','Unnamed: 0']).sum(axis=1).to_frame('value')
        ingredient_df = ingredient_df[(ingredient_df.T != 0).any()]
        ingredient_df = ingredient_df.sort_values(by='value', ascending=False,
        inplace=False)
        return ingredient_df
    

    これで、この関数を使用して料理ごとのトップ10の人気材料を把握できます。

  2. create_ingredient()を呼び出し、barh()を呼び出してプロットします:

    thai_ingredient_df = create_ingredient_df(thai_df)
    thai_ingredient_df.head(10).plot.barh()
    

    タイ料理

  3. 日本料理のデータについても同じことを行います:

    japanese_ingredient_df = create_ingredient_df(japanese_df)
    japanese_ingredient_df.head(10).plot.barh()
    

    日本料理

  4. 中国料理の材料についても同様です:

    chinese_ingredient_df = create_ingredient_df(chinese_df)
    chinese_ingredient_df.head(10).plot.barh()
    

    中国料理

  5. インド料理の材料をプロットします:

    indian_ingredient_df = create_ingredient_df(indian_df)
    indian_ingredient_df.head(10).plot.barh()
    

    インド料理

  6. 最後に、韓国料理の材料をプロットします:

    korean_ingredient_df = create_ingredient_df(korean_df)
    korean_ingredient_df.head(10).plot.barh()
    

    韓国料理

  7. 次に、異なる料理間で混乱を引き起こす最も一般的な材料をdrop()を呼び出して削除します:

    みんなが大好きな米、ニンニク、生姜を削除します!

    feature_df= df.drop(['cuisine','Unnamed: 0','rice','garlic','ginger'], axis=1)
    labels_df = df.cuisine #.unique()
    feature_df.head()
    

データセットをバランスさせる

データをクリーニングしたら、SMOTE(「合成少数オーバーサンプリング技術」)を使用してデータをバランスさせます。

  1. fit_resample()を呼び出します。この戦略は補間によって新しいサンプルを生成します。

    oversample = SMOTE()
    transformed_feature_df, transformed_label_df = oversample.fit_resample(feature_df, labels_df)
    

    データをバランスさせることで、分類時により良い結果が得られます。二値分類を考えてみてください。データのほとんどが1つのクラスである場合、機械学習モデルはそのクラスをより頻繁に予測する傾向があります。なぜなら、そのクラスのデータが多いからです。データのバランスを取ることで、このような偏りを取り除くことができます。

  2. 次に、材料ごとのラベルの数を確認します:

    print(f'new label count: {transformed_label_df.value_counts()}')
    print(f'old label count: {df.cuisine.value_counts()}')
    

    出力は次のようになります:

    new label count: korean      799
    chinese     799
    indian      799
    japanese    799
    thai        799
    Name: cuisine, dtype: int64
    old label count: korean      799
    indian      598
    chinese     442
    japanese    320
    thai        289
    Name: cuisine, dtype: int64
    

    データはきれいでバランスが取れており、とても美味しそうです!

  3. 最後のステップは、ラベルと特徴を含むバランスの取れたデータを新しいデータフレームに保存し、ファイルにエクスポートすることです:

    transformed_df = pd.concat([transformed_label_df,transformed_feature_df],axis=1, join='outer')
    
  4. transformed_df.head()transformed_df.info()を使用してデータをもう一度確認できます。このデータのコピーを保存して、今後のレッスンで使用します:

    transformed_df.head()
    transformed_df.info()
    transformed_df.to_csv("../data/cleaned_cuisines.csv")
    

    この新しいCSVは、ルートデータフォルダに保存されます。


🚀チャレンジ

このカリキュラムには、いくつかの興味深いデータセットが含まれています。dataフォルダを掘り下げて、二値または多クラス分類に適したデータセットが含まれているか確認してください。このデータセットにどのような質問をしますか?

講義後のクイズ

復習と自己学習

SMOTEのAPIを調べてみましょう。どのようなユースケースに最適で、どのような問題を解決するのでしょうか

課題

分類方法を探求する


免責事項:
この文書は、AI翻訳サービス Co-op Translator を使用して翻訳されています。正確性を期すよう努めておりますが、自動翻訳には誤りや不正確な表現が含まれる可能性があります。元の言語で記載された原文を公式な情報源としてご参照ください。重要な情報については、専門の人間による翻訳を推奨します。本翻訳の利用に起因する誤解や誤認について、当社は一切の責任を負いません。