Descente de Gradient
La descente de gradient est un algorithme d’optimisation fondamental largement utilisé en apprentissage automatique et en apprentissage profond pour minimiser les fonctions de coût ou de perte en ajustant itérativement les paramètres du modèle. Il est crucial pour l’optimisation de modèles comme les réseaux de neurones et s’implémente sous les formes Descente de gradient par batch, stochastique, et mini-batch.