You can not select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.
ML-For-Beginners/translations/fr/4-Classification/3-Classifiers-2
localizeflow[bot] 3e40406952
chore(i18n): sync translations with latest source changes (chunk 1/1, 22 changes)
2 months ago
..
solution chore(i18n): sync translations with latest source changes (chunk 1/1, 22 changes) 2 months ago
README.md chore(i18n): sync translations with latest source changes (chunk 1/1, 22 changes) 2 months ago
assignment.md chore(i18n): sync translations with latest source changes (chunk 1/1, 391 changes) 3 months ago
notebook.ipynb chore(i18n): sync translations with latest source changes (chunk 1/1, 22 changes) 2 months ago

README.md

Classificateurs de cuisine 2

Dans cette deuxième leçon de classification, vous allez explorer davantage de façons de classer des données numériques. Vous apprendrez également les conséquences du choix dun classificateur plutôt quun autre.

Quiz pré-conférence

Prérequis

Nous supposons que vous avez terminé les leçons précédentes et que vous disposez dun jeu de données nettoyé dans votre dossier data appelé cleaned_cuisines.csv à la racine de ce dossier de 4 leçons.

Préparation

Nous avons chargé votre fichier notebook.ipynb avec le jeu de données nettoyé et lavons divisé en dataframes X et y, prêts pour le processus de construction du modèle.

Une carte de classification

Précédemment, vous avez appris les différentes options dont vous disposez pour classifier des données en utilisant la fiche de référence de Microsoft. Scikit-learn offre une fiche de référence similaire, mais plus détaillée qui peut aider à affiner encore plus vos estimateurs (un autre terme pour les classificateurs) :

ML Map from Scikit-learn

Astuce : visitez cette carte en ligne et cliquez le long du chemin pour lire la documentation.

Le plan

Cette carte est très utile une fois que vous avez une compréhension claire de vos données, car vous pouvez « parcourir » ses chemins jusquà une décision :

  • Nous avons >50 échantillons
  • Nous voulons prédire une catégorie
  • Nous avons des données étiquetées
  • Nous avons moins de 100K échantillons
  • Nous pouvons choisir un Linear SVC
  • Si ça ne marche pas, comme nous avons des données numériques
    • Nous pouvons essayer un KNeighbors Classifier
      • Si ça ne marche pas, essayer SVC et Ensemble Classifiers

Cest un chemin très utile à suivre.

Exercice - diviser les données

En suivant ce chemin, nous devrions commencer par importer quelques bibliothèques à utiliser.

  1. Importez les bibliothèques nécessaires :

    from sklearn.neighbors import KNeighborsClassifier
    from sklearn.linear_model import LogisticRegression
    from sklearn.svm import SVC
    from sklearn.ensemble import RandomForestClassifier, AdaBoostClassifier
    from sklearn.model_selection import train_test_split, cross_val_score
    from sklearn.metrics import accuracy_score,precision_score,confusion_matrix,classification_report, precision_recall_curve
    import numpy as np
    
  2. Divisez vos données dentraînement et de test :

    X_train, X_test, y_train, y_test = train_test_split(cuisines_features_df, cuisines_label_df, test_size=0.3)
    

Classificateur Linear SVC

Le support-vector clustering (SVC) appartient à la famille des machines à vecteurs de support (Support-Vector machines) en apprentissage automatique (apprenez-en plus ci-dessous). Dans cette méthode, vous pouvez choisir un 'kernel' pour décider comment regrouper les étiquettes. Le paramètre 'C' fait référence à la « régularisation » qui régule linfluence des paramètres. Le kernel peut être un des plusieurs ; ici nous lavons fixé à 'linear' pour garantir lutilisation du Linear SVC. La probabilité est par défaut à 'false' ; ici nous la mettons à 'true' pour recueillir des estimations de probabilité. Nous fixons létat aléatoire à '0' pour mélanger les données et obtenir des probabilités.

Exercice - appliquer un Linear SVC

Commencez par créer un tableau de classificateurs. Vous ajouterez progressivement à ce tableau au fur et à mesure de nos tests.

  1. Commencez par un Linear SVC :

    C = 10
    # Créer différents classificateurs.
    classifiers = {
        'Linear SVC': SVC(kernel='linear', C=C, probability=True,random_state=0)
    }
    
  2. Entraînez votre modèle en utilisant le Linear SVC et affichez un rapport :

    n_classifiers = len(classifiers)
    
    for index, (name, classifier) in enumerate(classifiers.items()):
        classifier.fit(X_train, np.ravel(y_train))
    
        y_pred = classifier.predict(X_test)
        accuracy = accuracy_score(y_test, y_pred)
        print("Accuracy (train) for %s: %0.1f%% " % (name, accuracy * 100))
        print(classification_report(y_test,y_pred))
    

    Le résultat est assez bon :

    Accuracy (train) for Linear SVC: 78.6% 
                  precision    recall  f1-score   support
    
         chinese       0.71      0.67      0.69       242
          indian       0.88      0.86      0.87       234
        japanese       0.79      0.74      0.76       254
          korean       0.85      0.81      0.83       242
            thai       0.71      0.86      0.78       227
    
        accuracy                           0.79      1199
       macro avg       0.79      0.79      0.79      1199
    weighted avg       0.79      0.79      0.79      1199
    

Classificateur K-Neighbors

K-Neighbors fait partie de la famille des méthodes ML « voisins » ("neighbors"), qui peuvent être utilisées pour lapprentissage supervisé et non supervisé. Dans cette méthode, un nombre prédéfini de points est créé et les données sont regroupées autour de ces points de manière à prédire des étiquettes généralisées pour les données.

Exercice - appliquer le classificateur K-Neighbors

Le classificateur précédent était bon, et a bien fonctionné avec les données, mais peut-être pouvons-nous obtenir une meilleure précision. Essayez un classificateur K-Neighbors.

  1. Ajoutez une ligne à votre tableau de classificateurs (ajoutez une virgule après lélément Linear SVC) :

    'KNN classifier': KNeighborsClassifier(C),
    

    Le résultat est un peu moins bon :

    Accuracy (train) for KNN classifier: 73.8% 
                  precision    recall  f1-score   support
    
         chinese       0.64      0.67      0.66       242
          indian       0.86      0.78      0.82       234
        japanese       0.66      0.83      0.74       254
          korean       0.94      0.58      0.72       242
            thai       0.71      0.82      0.76       227
    
        accuracy                           0.74      1199
       macro avg       0.76      0.74      0.74      1199
    weighted avg       0.76      0.74      0.74      1199
    

    Découvrez K-Neighbors

Classificateur Support Vector

Les classificateurs Support-Vector font partie de la famille des Support-Vector Machine en apprentissage automatique, utilisés pour les tâches de classification et de régression. Les SVM « projettent les exemples dapprentissage en points dans un espace » pour maximiser la distance entre deux catégories. Les données suivantes sont projetées dans cet espace afin que leur catégorie puisse être prédite.

Exercice - appliquer un classificateur Support Vector

Essayons dobtenir une précision un peu meilleure avec un classificateur Support Vector.

  1. Ajoutez une virgule après lélément K-Neighbors, puis ajoutez cette ligne :

    'SVC': SVC(),
    

    Le résultat est assez bon !

    Accuracy (train) for SVC: 83.2% 
                  precision    recall  f1-score   support
    
         chinese       0.79      0.74      0.76       242
          indian       0.88      0.90      0.89       234
        japanese       0.87      0.81      0.84       254
          korean       0.91      0.82      0.86       242
            thai       0.74      0.90      0.81       227
    
        accuracy                           0.83      1199
       macro avg       0.84      0.83      0.83      1199
    weighted avg       0.84      0.83      0.83      1199
    

    Découvrez les Support-Vectors

Classificateurs en ensemble

Suivons le chemin jusquau bout, même si le test précédent était assez bon. Essayons des « ensemble classifiers », spécifiquement Random Forest et AdaBoost :

  'RFST': RandomForestClassifier(n_estimators=100),
  'ADA': AdaBoostClassifier(n_estimators=100)

Le résultat est très bon, surtout pour Random Forest :

Accuracy (train) for RFST: 84.5% 
              precision    recall  f1-score   support

     chinese       0.80      0.77      0.78       242
      indian       0.89      0.92      0.90       234
    japanese       0.86      0.84      0.85       254
      korean       0.88      0.83      0.85       242
        thai       0.80      0.87      0.83       227

    accuracy                           0.84      1199
   macro avg       0.85      0.85      0.84      1199
weighted avg       0.85      0.84      0.84      1199

Accuracy (train) for ADA: 72.4% 
              precision    recall  f1-score   support

     chinese       0.64      0.49      0.56       242
      indian       0.91      0.83      0.87       234
    japanese       0.68      0.69      0.69       254
      korean       0.73      0.79      0.76       242
        thai       0.67      0.83      0.74       227

    accuracy                           0.72      1199
   macro avg       0.73      0.73      0.72      1199
weighted avg       0.73      0.72      0.72      1199

Découvrez les classificateurs en ensemble

Cette méthode de Machine Learning « combine les prédictions de plusieurs estimateurs de base » pour améliorer la qualité du modèle. Dans notre exemple, nous avons utilisé Random Trees et AdaBoost.

  • Random Forest, une méthode de moyennage, construit une « forêt » d« arbres de décision » infusionnés de hasard pour éviter le surapprentissage. Le paramètre n_estimators est fixé au nombre darbres.

  • AdaBoost ajuste un classificateur à un jeu de données, puis ajuste des copies de ce classificateur au même jeu de données. Il se concentre sur les poids des éléments mal classifiés et ajuste lajustement pour le classificateur suivant afin de corriger.


🚀Défi

Chacune de ces techniques possède un grand nombre de paramètres que vous pouvez modifier. Recherchez les paramètres par défaut de chacune et réfléchissez à ce que modifier ces paramètres signifierait pour la qualité du modèle.

Quiz post-conférence

Revue & Auto-apprentissage

Il y a beaucoup de jargon dans ces leçons, alors prenez un instant pour revoir cette liste de terminologie utile !

Devoir

Jeu avec les paramètres


Avertissement :
Ce document a été traduit à laide du service de traduction automatique Co-op Translator. Bien que nous nous efforçons dassurer lexactitude, veuillez noter que les traductions automatiques peuvent contenir des erreurs ou des inexactitudes. Le document original dans sa langue dorigine doit être considéré comme la source autoritaire. Pour des informations critiques, une traduction humaine professionnelle est recommandée. Nous ne sommes pas responsables des malentendus ou erreurs dinterprétation résultant de lutilisation de cette traduction.