
Validation croisée
La validation croisée est une méthode statistique utilisée pour évaluer et comparer les modèles d'apprentissage automatique en partitionnant les données en ense...
L’entropie croisée mesure la divergence entre les distributions de probabilité prédites et réelles, largement utilisée comme fonction de perte en machine learning pour optimiser la précision des modèles de classification.
L’entropie croisée est un concept fondamental en théorie de l’information et en apprentissage automatique, servant de métrique pour mesurer la divergence entre deux distributions de probabilité sur le même ensemble d’événements. En machine learning, cette mesure est particulièrement cruciale en tant que fonction de perte pour quantifier les écarts entre les sorties prédites d’un modèle et les vraies étiquettes des données. Cette quantification est essentielle lors de l’entraînement des modèles, notamment pour les tâches de classification, car elle aide à ajuster les poids du modèle afin de minimiser les erreurs de prédiction, améliorant ainsi ses performances.
Le concept d’entropie croisée, noté H(p, q), consiste à calculer la divergence entre deux distributions de probabilité : p (la distribution réelle) et q (la distribution estimée par le modèle). Pour des distributions discrètes, l’entropie croisée s’exprime mathématiquement ainsi :
$$ H(p, q) = -\sum_{x} p(x) \log q(x) $$
Où :
L’entropie croisée calcule essentiellement le nombre moyen de bits nécessaires pour identifier un événement parmi un ensemble de possibilités, en utilisant un schéma de codage optimisé pour la distribution estimée (q), plutôt que la distribution réelle (p).
L’entropie croisée est étroitement liée à la divergence de Kullback-Leibler (KL), qui évalue comment une distribution de probabilité s’écarte d’une autre distribution attendue. L’entropie croisée H(p, q) peut s’exprimer en termes d’entropie de la vraie distribution H(p) et de la divergence KL D_{KL}(p || q) comme suit :
$$ H(p, q) = H(p) + D_{KL}(p \parallel q) $$
Cette relation souligne le rôle fondamental de l’entropie croisée dans la quantification des erreurs de prédiction, reliant la théorie statistique aux applications pratiques du machine learning.
En apprentissage automatique, notamment dans les problèmes de classification, l’entropie croisée sert de fonction de perte permettant d’évaluer à quel point la distribution de probabilité prédite correspond à la distribution réelle des étiquettes. Elle s’avère particulièrement efficace dans les tâches multi-classes où l’objectif est d’attribuer la probabilité la plus élevée à la bonne classe, guidant ainsi le processus d’optimisation lors de l’entraînement du modèle.
Cette fonction est utilisée dans les tâches de classification binaire impliquant deux classes possibles (par exemple, vrai/faux, positif/négatif). La fonction de perte d’entropie croisée binaire s’écrit :
$$ L = -\frac{1}{N} \sum_{i=1}^N [y_i \log(p_i) + (1-y_i) \log(1-p_i)] $$
Où :
Utilisée dans les tâches de classification multi-classes avec plus de deux classes. L’entropie croisée catégorielle se calcule comme suit :
$$ L = -\frac{1}{N} \sum_{i=1}^{N} \sum_{j=1}^{C} y_{ij} \log(p_{ij}) $$
Où :
Considérons un scénario de classification avec trois classes : chats, chiens et chevaux. Si la vraie étiquette pour une image est un chien, représentée par le vecteur one-hot [0, 1, 0], et que le modèle prédit [0.4, 0.4, 0.2], la perte d’entropie croisée se calcule ainsi :
$$ L(y, \hat{y}) = – (0 \times \log(0.4) + 1 \times \log(0.4) + 0 \times \log(0.2)) = 0.92 $$
Une entropie croisée plus faible indique un meilleur alignement des probabilités prédites par le modèle avec les vraies étiquettes, reflétant de meilleures performances du modèle.
L’entropie croisée est essentielle pour entraîner les modèles d’IA, notamment dans les cadres d’apprentissage supervisé. Elle est largement utilisée dans :
import numpy as np
def cross_entropy(y_true, y_pred):
y_true = np.float_(y_true)
y_pred = np.float_(y_pred)
return -np.sum(y_true * np.log(y_pred + 1e-15))
# Exemple d'utilisation
y_true = np.array([0, 1, 0]) # Vraie étiquette (one-hot encodée)
y_pred = np.array([0.4, 0.4, 0.2]) # Probabilités prédites
loss = cross_entropy(y_true, y_pred)
print(f"Perte d'entropie croisée : {loss}")
Dans cet exemple Python, la fonction cross_entropy
calcule la perte entre les vraies étiquettes et les probabilités prédites, facilitant ainsi l’évaluation et l’optimisation du modèle.
L'entropie croisée est une métrique qui mesure la divergence entre deux distributions de probabilité, couramment utilisée comme fonction de perte pour évaluer dans quelle mesure les prédictions d'un modèle correspondent aux vraies étiquettes.
En machine learning, l'entropie croisée quantifie l'erreur entre les probabilités prédites et les étiquettes réelles, guidant le processus d'optimisation afin d'améliorer la précision du modèle, particulièrement dans les tâches de classification.
L'entropie croisée binaire est utilisée pour la classification binaire (deux classes), tandis que l'entropie croisée catégorielle s'applique à la classification multi-classes. Les deux calculent la perte entre les probabilités réelles et prédites, adaptées au nombre de classes.
L'entropie croisée est liée à la divergence de Kullback-Leibler (KL), car elle peut s'exprimer comme la somme de l'entropie de la distribution réelle et de la divergence KL entre les distributions réelle et prédite.
Oui. Exemple : import numpy as np def cross_entropy(y_true, y_pred): y_true = np.float_(y_true) y_pred = np.float_(y_pred) return -np.sum(y_true * np.log(y_pred + 1e-15))
Commencez à créer vos propres solutions d'IA avec la plateforme intuitive de FlowHunt. Optimisez vos modèles et automatisez vos workflows efficacement.
La validation croisée est une méthode statistique utilisée pour évaluer et comparer les modèles d'apprentissage automatique en partitionnant les données en ense...
La perte logarithmique, ou perte logarithmique/entropie croisée, est un indicateur clé pour évaluer la performance d’un modèle d’apprentissage automatique—parti...
L'Erreur Absolue Moyenne (MAE) est une métrique fondamentale en apprentissage automatique pour évaluer les modèles de régression. Elle mesure l'amplitude moyenn...