Entropie croisée
L'entropie croisée est un concept clé à la fois en théorie de l'information et en apprentissage automatique, servant de métrique pour mesurer la divergence entre deux distributions de probabilité. En machine learning, elle est utilisée comme fonction de perte pour quantifier les écarts entre les sorties prédites et les vraies étiquettes, optimisant ainsi les performances du modèle, notamment dans les tâches de classification.