diff --git a/decisiontree-iris.py b/decisiontree-iris.py new file mode 100644 index 0000000000000000000000000000000000000000..4fe15e37f72a0513e0a7e9e7f256fb6185a62127 --- /dev/null +++ b/decisiontree-iris.py @@ -0,0 +1,39 @@ +# Import des bibliothèques nécessaires +import pandas as pd +from sklearn.model_selection import train_test_split +from sklearn.tree import DecisionTreeClassifier +from sklearn.metrics import accuracy_score +from sklearn.tree import plot_tree +import matplotlib.pyplot as plt + +# Chargement des données depuis un fichier CSV +file_path_iris = './Data/iris.csv' +df_iris = pd.read_csv(file_path_iris, names=['sepal_length', 'sepal_width', 'petal_length', 'petal_width', 'class']) + +# Séparation des features et de la cible +X_iris = df_iris.drop('class', axis=1) +y_iris = df_iris['class'] + +# Division des données en ensembles d'entraînement et de test +X_train_iris, X_test_iris, y_train_iris, y_test_iris = train_test_split(X_iris, y_iris, test_size=0.2, random_state=42) + +# Construction de l'arbre de décision avec des paramètres spécifiques +# Vous pouvez jouer avec les valeurs de min_samples_leaf et max_depth +clf_iris = DecisionTreeClassifier(min_samples_leaf=5, max_depth=3) +clf_iris.fit(X_train_iris, y_train_iris) + +# Prédictions sur les ensembles d'entraînement et de test +y_train_pred_iris = clf_iris.predict(X_train_iris) +y_test_pred_iris = clf_iris.predict(X_test_iris) + +# Mesure du taux de classification correcte +train_accuracy_iris = accuracy_score(y_train_iris, y_train_pred_iris) +test_accuracy_iris = accuracy_score(y_test_iris, y_test_pred_iris) + +print(f'Taux de classification correcte (Entraînement): {train_accuracy_iris:.2f}') +print(f'Taux de classification correcte (Test): {test_accuracy_iris:.2f}') + +# Visualisation de l'arbre de décision +plt.figure(figsize=(12, 8)) +plot_tree(clf_iris, filled=True, feature_names=X_iris.columns, class_names=df_iris['class'].unique(), rounded=True) +plt.show() diff --git a/decisiontree-student.py b/decisiontree-student.py new file mode 100644 index 0000000000000000000000000000000000000000..c2eaa34d0bd62464fb90ba0438f903b3fef5f6bd --- /dev/null +++ b/decisiontree-student.py @@ -0,0 +1,39 @@ +# Import des bibliothèques nécessaires +import pandas as pd +from sklearn.model_selection import train_test_split +from sklearn.tree import DecisionTreeClassifier +from sklearn.metrics import accuracy_score +from sklearn.tree import plot_tree +import matplotlib.pyplot as plt + +# Chargement des données depuis un fichier CSV +file_path = './Data/student-data-train.csv' +df = pd.read_csv(file_path) + +# Séparation des features et de la cible +X = df.drop('success', axis=1) +y = df['success'] + +# Division des données en ensembles d'entraînement et de test +X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42) # Vous pouvez ajuster la taille du test si nécessaire + +# Construction de l'arbre de décision avec des paramètres spécifiques +# Vous pouvez jouer avec les valeurs de min_samples_leaf et max_depth +clf = DecisionTreeClassifier(min_samples_leaf=5, max_depth=3) +clf.fit(X_train, y_train) + +# Prédictions sur les ensembles d'entraînement et de test +y_train_pred = clf.predict(X_train) +y_test_pred = clf.predict(X_test) + +# Mesure du taux de classification correcte +train_accuracy = accuracy_score(y_train, y_train_pred) +test_accuracy = accuracy_score(y_test, y_test_pred) + +print(f'Taux de classification correcte (Entraînement): {train_accuracy:.2f}') +print(f'Taux de classification correcte (Test): {test_accuracy:.2f}') + +# Visualisation de l'arbre de décision +plt.figure(figsize=(12, 8)) +plot_tree(clf, filled=True, feature_names=X.columns, class_names=['0', '1'], rounded=True) +plt.show()