Entropía Cruzada
La entropía cruzada es un concepto fundamental tanto en la teoría de la información como en el aprendizaje automático, y sirve como una métrica para medir la divergencia entre dos distribuciones de probabilidad. En el aprendizaje automático, se utiliza como función de pérdida para cuantificar las discrepancias entre las salidas predichas y las etiquetas reales, optimizando el rendimiento del modelo, especialmente en tareas de clasificación.