Descenso de Gradiente
El descenso de gradiente es un algoritmo de optimización fundamental ampliamente utilizado en aprendizaje automático y aprendizaje profundo para minimizar funciones de coste o pérdida mediante el ajuste iterativo de los parámetros del modelo. Es crucial para optimizar modelos como redes neuronales y se implementa en formas como Descenso de Gradiente por Lotes, Estocástico y Mini-Lotes.