Perte logarithmique
La perte logarithmique, ou perte logarithmique/entropie croisée, est un indicateur clé pour évaluer la performance d’un modèle d’apprentissage automatique—particulièrement pour la classification binaire—en mesurant la divergence entre les probabilités prédites et les résultats réels, pénalisant les prédictions incorrectes ou trop confiantes.
•
6 min read