La Descente de Gradient est un algorithme d’optimisation qui permet de trouver le minimum de n’importe quelle fonction convexe en convergeant progressivement vers celui-ci. Pour comprendre son fonctionnement de manière intuitive, découvrez cette vidéo
« Retour à la page accueil du lexique