Entropia Cruzada
A entropia cruzada é um conceito fundamental tanto na teoria da informação quanto no aprendizado de máquina, servindo como uma métrica para medir a divergência entre duas distribuições de probabilidade. No aprendizado de máquina, é utilizada como uma função de perda para quantificar discrepâncias entre saídas previstas e rótulos verdadeiros, otimizando o desempenho do modelo, especialmente em tarefas de classificação.