Les résidus
Les résidus
En machine learning, les résidus sont les écarts entre valeur prédite par le modèle et valeur réellement observée.
Illustration
Sur l'exemple simple ci-dessous, on identifie une courbe de prédiction (en rouge), lisse, et les valeurs réelles (points bleus) qui sont de part et d'autre de la courbe. Les résidus (en pointillés) sont les écarts entre les valeurs réelles et la courbe.

Utilisation
A l'aide de la bibliothèque Python Scikit-learn, on peut calculer les résidus et les afficher sous la forme d'un histogramme, avec le code ci-dessous :

Un modèle de machine learning est bon si les résidus ne sont pas trop importants, et qu’ils sont bien répartis aléatoirement autour de 0, en formant une gaussienne. Voici un exemple d'histogramme des résidus très satisfaisant :

Voir aussi : all(), any(), append(), count(), enumerate(), extend(), filter(), float() format() input(), int(), isdigit(), isinstance(), items(), join(), endswith(), list(), map(), max(), mean(), min(), pop(), range(), len(), startswith(), zip(), type(), get(), symmetric_difference(), keys(), difference()
Numpy : arange(), array(), delete(), hsplit(), hstack(), linspace(), logical_and(), logical_or(), polyfit()
Pandas : concat(), concatenate(), describe(), dict(), drop_duplicates(), dropna(), fillna(), from_dict(), groupby(), head(), iloc, info(), insert(), isin(), melt(), merge(), pivot_table(), read_csv(), read_excel(), rename(), where()
Machine Learning : F1-Score, Précision, Rappel, Normalisation, Courbe d’apprentissage, Les résidus, Régression VS classification, Mean Absolute Error (MAE), Mean Squared Error (MSE), Root Mean Squared Error (RMSE), Accuracy, L’astuce du noyau, Bases d’apprentissage et de test, Classes linéairement séparables, Apprentissage supervisé VS non-supervisé, Coefficient de détermination R2, Validation croisée
N'hésitez pas à consulter nos formations sur cette page.