Classes linéairement séparables
Classes linéairement séparables
En machine learning, on cherche parfois à classer des observations (il s'agit des problèmes de classification). Des classes d'observations sont linéairement séparables lorsqu’on peut déterminer un hyperplan de séparation des classes.
Un hyperplan est un objet mathématique de dimension inférieure de 1 par rapport à l’espace des caractéristiques (ou colonnes de notre base de données), ce qui revient à une droite lorsque l’espace des dimensions est un plan.
Exemple :
On dispose de deux jeux de données en 2D : ils n'ont chacun que deux colonnes, x et y. On peut donc les représenter sur un plan. Notre premier jeu de données, nommé "en sphères", est linéairement séparable : on peut tracer une droite qui sépare les classes des observations.

En revanche, notre deuxième jeu de données, "en croissants", n'est pas linéairement séparable : impossible de tracer une droite séparant les différentes classes des observations. Ce problème de classification est tout-de-même gérable par un algorithme de machine learning, mais pas par n'importe lequel.

Si on tient à utiliser un algorithme de machine learning très simple avec un problème non-linéairement séparable, on peut utiliser l'astuce du noyau.
Voir aussi : all(), any(), append(), count(), enumerate(), extend(), filter(), float() format() input(), int(), isdigit(), isinstance(), items(), join(), endswith(), list(), map(), max(), mean(), min(), pop(), range(), len(), startswith(), zip(), type(), get(), symmetric_difference(), keys(), difference()
Numpy : arange(), array(), delete(), hsplit(), hstack(), linspace(), logical_and(), logical_or(), polyfit()
Pandas : concat(), concatenate(), describe(), dict(), drop_duplicates(), dropna(), fillna(), from_dict(), groupby(), head(), iloc, info(), insert(), isin(), melt(), merge(), pivot_table(), read_csv(), read_excel(), rename(), where()
Machine Learning : F1-Score, Précision, Rappel, Normalisation, Courbe d’apprentissage, Les résidus, Régression VS classification, Mean Absolute Error (MAE), Mean Squared Error (MSE), Root Mean Squared Error (RMSE), Accuracy, L’astuce du noyau, Bases d’apprentissage et de test, Classes linéairement séparables, Apprentissage supervisé VS non-supervisé, Coefficient de détermination R2, Validation croisée
N'hésitez pas à consulter nos formations sur cette page.