16 KiB
Classificateurs de cuisine 1
Dans cette leçon, vous utiliserez le jeu de données que vous avez enregistré lors de la dernière leçon, rempli de données équilibrées et propres concernant les cuisines.
Vous utiliserez ce jeu de données avec une variété de classificateurs pour prédire une cuisine nationale donnée en fonction d'un groupe d'ingrédients. Ce faisant, vous en apprendrez davantage sur certaines des façons dont les algorithmes peuvent être utilisés pour des tâches de classification.
Quiz pré-conférence
Préparation
En supposant que vous ayez complété leçon 1, assurez-vous qu'un fichier cleaned_cuisines.csv existe dans le dossier racine /data
pour ces quatre leçons.
Exercice - prédire une cuisine nationale
-
En travaillant dans le dossier notebook.ipynb de cette leçon, importez ce fichier ainsi que la bibliothèque Pandas :
import pandas as pd cuisines_df = pd.read_csv("../data/cleaned_cuisines.csv") cuisines_df.head()
Les données ressemblent à ceci :
Unnamed: 0 | cuisine | almond | angelica | anise | anise_seed | apple | apple_brandy | apricot | armagnac | ... | whiskey | white_bread | white_wine | whole_grain_wheat_flour | wine | wood | yam | yeast | yogurt | zucchini | |
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
0 | 0 | indien | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | ... | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
1 | 1 | indien | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | ... | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
2 | 2 | indien | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | ... | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
3 | 3 | indien | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | ... | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
4 | 4 | indien | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | ... | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 |
-
Maintenant, importez plusieurs autres bibliothèques :
from sklearn.linear_model import LogisticRegression from sklearn.model_selection import train_test_split, cross_val_score from sklearn.metrics import accuracy_score,precision_score,confusion_matrix,classification_report, precision_recall_curve from sklearn.svm import SVC import numpy as np
-
Divisez les coordonnées X et y en deux dataframes pour l'entraînement.
cuisine
peut être le dataframe des étiquettes :cuisines_label_df = cuisines_df['cuisine'] cuisines_label_df.head()
Cela ressemblera à ceci :
0 indian 1 indian 2 indian 3 indian 4 indian Name: cuisine, dtype: object
-
Supprimez
Unnamed: 0
column and thecuisine
column, callingdrop()
. Enregistrez le reste des données comme caractéristiques entraînables :cuisines_feature_df = cuisines_df.drop(['Unnamed: 0', 'cuisine'], axis=1) cuisines_feature_df.head()
Vos caractéristiques ressemblent à ceci :
almond | angelica | anise | anise_seed | apple | apple_brandy | apricot | armagnac | artemisia | artichoke | ... | whiskey | white_bread | white_wine | whole_grain_wheat_flour | wine | wood | yam | yeast | yogurt | zucchini | |
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | ... | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | ... | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
2 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | ... | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
3 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | ... | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
4 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | ... | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 |
Maintenant, vous êtes prêt à entraîner votre modèle !
Choisir votre classificateur
Maintenant que vos données sont propres et prêtes pour l'entraînement, vous devez décider quel algorithme utiliser pour la tâche.
Scikit-learn regroupe la classification sous l'apprentissage supervisé, et dans cette catégorie, vous trouverez de nombreuses façons de classer. La variété est assez déroutante à première vue. Les méthodes suivantes incluent toutes des techniques de classification :
- Modèles linéaires
- Machines à vecteurs de support
- Descente de gradient stochastique
- Voisins les plus proches
- Processus gaussiens
- Arbres de décision
- Méthodes d'ensemble (classificateur par vote)
- Algorithmes multiclasses et multi-sorties (classification multiclasses et multi-étiquettes, classification multiclasses-multi-sorties)
Vous pouvez également utiliser des réseaux neuronaux pour classer des données, mais cela dépasse le cadre de cette leçon.
Quel classificateur choisir ?
Alors, quel classificateur devriez-vous choisir ? Souvent, passer par plusieurs et chercher un bon résultat est une manière de tester. Scikit-learn propose une comparaison côte à côte sur un ensemble de données créé, comparant KNeighbors, SVC de deux manières, GaussianProcessClassifier, DecisionTreeClassifier, RandomForestClassifier, MLPClassifier, AdaBoostClassifier, GaussianNB et QuadraticDiscriminantAnalysis, montrant les résultats visualisés :
Graphiques générés dans la documentation de Scikit-learn
AutoML résout ce problème de manière élégante en exécutant ces comparaisons dans le cloud, vous permettant de choisir le meilleur algorithme pour vos données. Essayez-le ici
Une meilleure approche
Une meilleure façon que de deviner à l'aveugle, cependant, est de suivre les idées sur cette fiche de triche ML téléchargeable. Ici, nous découvrons que, pour notre problème multiclass, nous avons plusieurs choix :
Une section de la fiche de triche d'algorithme de Microsoft, détaillant les options de classification multiclasses
✅ Téléchargez cette fiche de triche, imprimez-la et accrochez-la sur votre mur !
Raisonnement
Voyons si nous pouvons raisonner à travers différentes approches compte tenu des contraintes que nous avons :
- Les réseaux neuronaux sont trop lourds. Étant donné notre jeu de données propre, mais minimal, et le fait que nous exécutons l'entraînement localement via des notebooks, les réseaux neuronaux sont trop lourds pour cette tâche.
- Pas de classificateur à deux classes. Nous n'utilisons pas de classificateur à deux classes, donc cela élimine one-vs-all.
- Un arbre de décision ou une régression logistique pourraient fonctionner. Un arbre de décision pourrait fonctionner, ou une régression logistique pour des données multiclasses.
- Les arbres de décision boostés multiclasses résolvent un problème différent. L'arbre de décision boosté multiclasses est le plus adapté aux tâches non paramétriques, par exemple, les tâches conçues pour établir des classements, donc il n'est pas utile pour nous.
Utilisation de Scikit-learn
Nous utiliserons Scikit-learn pour analyser nos données. Cependant, il existe de nombreuses façons d'utiliser la régression logistique dans Scikit-learn. Jetez un œil aux paramètres à passer.
Essentiellement, il y a deux paramètres importants - multi_class
and solver
- that we need to specify, when we ask Scikit-learn to perform a logistic regression. The multi_class
value applies a certain behavior. The value of the solver is what algorithm to use. Not all solvers can be paired with all multi_class
values.
According to the docs, in the multiclass case, the training algorithm:
- Uses the one-vs-rest (OvR) scheme, if the
multi_class
option is set toovr
- Uses the cross-entropy loss, if the
multi_class
option is set tomultinomial
. (Currently themultinomial
option is supported only by the ‘lbfgs’, ‘sag’, ‘saga’ and ‘newton-cg’ solvers.)"
🎓 The 'scheme' here can either be 'ovr' (one-vs-rest) or 'multinomial'. Since logistic regression is really designed to support binary classification, these schemes allow it to better handle multiclass classification tasks. source
🎓 The 'solver' is defined as "the algorithm to use in the optimization problem". source.
Scikit-learn offers this table to explain how solvers handle different challenges presented by different kinds of data structures:
Exercise - split the data
We can focus on logistic regression for our first training trial since you recently learned about the latter in a previous lesson.
Split your data into training and testing groups by calling train_test_split()
:
X_train, X_test, y_train, y_test = train_test_split(cuisines_feature_df, cuisines_label_df, test_size=0.3)
Exercice - appliquer la régression logistique
Puisque vous utilisez le cas multiclasses, vous devez choisir quel schéma utiliser et quel solveur définir. Utilisez LogisticRegression avec un paramètre multiclass et le solveur liblinear pour l'entraînement.
-
Créez une régression logistique avec multi_class défini sur
ovr
and the solver set toliblinear
:lr = LogisticRegression(multi_class='ovr',solver='liblinear') model = lr.fit(X_train, np.ravel(y_train)) accuracy = model.score(X_test, y_test) print ("Accuracy is {}".format(accuracy))
✅ Essayez un autre solveur comme
lbfgs
, which is often set as defaultNote, use Pandas
ravel
pour aplatir vos données si nécessaire.L'exactitude est bonne à plus de 80% !
-
Vous pouvez voir ce modèle en action en testant une ligne de données (#50) :
print(f'ingredients: {X_test.iloc[50][X_test.iloc[50]!=0].keys()}') print(f'cuisine: {y_test.iloc[50]}')
Le résultat est imprimé :
ingredients: Index(['cilantro', 'onion', 'pea', 'potato', 'tomato', 'vegetable_oil'], dtype='object') cuisine: indian
✅ Essayez un numéro de ligne différent et vérifiez les résultats
-
En creusant plus profondément, vous pouvez vérifier l'exactitude de cette prédiction :
test= X_test.iloc[50].values.reshape(-1, 1).T proba = model.predict_proba(test) classes = model.classes_ resultdf = pd.DataFrame(data=proba, columns=classes) topPrediction = resultdf.T.sort_values(by=[0], ascending = [False]) topPrediction.head()
Le résultat est imprimé - la cuisine indienne est sa meilleure supposition, avec une bonne probabilité :
0 indien 0.715851 chinois 0.229475 japonais 0.029763 coréen 0.017277 thaï 0.007634 ✅ Pouvez-vous expliquer pourquoi le modèle est assez sûr qu'il s'agit d'une cuisine indienne ?
-
Obtenez plus de détails en imprimant un rapport de classification, comme vous l'avez fait dans les leçons de régression :
y_pred = model.predict(X_test) print(classification_report(y_test,y_pred))
précision rappel f1-score support chinois 0.73 0.71 0.72 229 indien 0.91 0.93 0.92 254 japonais 0.70 0.75 0.72 220 coréen 0.86 0.76 0.81 242 thaï 0.79 0.85 0.82 254 exactitude 0.80 1199 moyenne macro 0.80 0.80 0.80 1199 moyenne pondérée 0.80 0.80 0.80 1199
🚀Défi
Dans cette leçon, vous avez utilisé vos données nettoyées pour construire un modèle d'apprentissage automatique capable de prédire une cuisine nationale en fonction d'une série d'ingrédients. Prenez le temps de parcourir les nombreuses options que Scikit-learn offre pour classer des données. Plongez plus profondément dans le concept de 'solveur' pour comprendre ce qui se passe en coulisses.
Quiz post-conférence
Revue & Auto-étude
Explorez un peu plus les mathématiques derrière la régression logistique dans cette leçon
Devoir
I'm sorry, but I can't provide a translation to "mo" as it is not clear which language you are referring to. If you mean "Moldovan" (which is essentially Romanian), I can help with that. Please confirm or specify the language you want the text translated into.