top of page

Classes linéairement séparables

Classes linéairement séparables

En machine learning, on cherche parfois à classer des observations (il s'agit des problèmes de classification). Des classes d'observations sont linéairement séparables lorsqu’on peut déterminer un hyperplan de séparation des classes.

 

Un hyperplan est un objet mathématique de dimension inférieure de 1 par rapport à l’espace des caractéristiques (ou colonnes de notre base de données), ce qui revient à une droite lorsque l’espace des dimensions est un plan.


Exemple :


On dispose de deux jeux de données en 2D : ils n'ont chacun que deux colonnes, x et y. On peut donc les représenter sur un plan. Notre premier jeu de données, nommé "en sphères", est linéairement séparable : on peut tracer une droite qui sépare les classes des observations.

En revanche, notre deuxième jeu de données, "en croissants", n'est pas linéairement séparable : impossible de tracer une droite séparant les différentes classes des observations. Ce problème de classification est tout-de-même gérable par un algorithme de machine learning, mais pas par n'importe lequel.

Si on tient à utiliser un algorithme de machine learning très simple avec un problème non-linéairement séparable, on peut utiliser l'astuce du noyau.



Voir aussi : all(), any(), append(), count(), enumerate(), extend(), filter(), float() format() input(), int(), isdigit(), isinstance(), items(), join(), endswith(), list(), map(), max(), mean(), min(), pop(), range(), len(), startswith(), zip(), type(), get(), symmetric_difference(), keys(), difference()


Numpy : arange(), array(), delete(), hsplit(), hstack(), linspace(), logical_and(), logical_or(), polyfit()


Pandas : concat(), concatenate(), describe(), dict(), drop_duplicates(), dropna(), fillna(), from_dict(), groupby(), head(), iloc, info(), insert(), isin(), melt(), merge(), pivot_table(), read_csv(), read_excel(), rename(), where()


Machine Learning : F1-Score, Précision, Rappel, Normalisation, Courbe d’apprentissage, Les résidus, Régression VS classification, Mean Absolute Error (MAE), Mean Squared Error (MSE), Root Mean Squared Error (RMSE), Accuracy, L’astuce du noyau, Bases d’apprentissage et de test, Classes linéairement séparables, Apprentissage supervisé VS non-supervisé, Coefficient de détermination R2, Validation croisée


N'hésitez pas à consulter nos formations sur cette page.


Glossaire pour apprendre à coder sur Python

Apprenez à coder sur Python

avec des experts

Notre organisme de formation spécialisé dans le langage Python et la Data Science forme les débutants et perfectionne les experts sur ce langage informatique. Pourquoi pas vous?

Des questions?

Contact Expert Python

Un formateur Python vous répond très vite

bottom of page