Plan des savoirs optimisation étudiés
- Cours 1 - Introduction générale
- Cours 2 - Déterminer le minimum d'une fonction - Comparaison de la desccente de gradient et du recuit simulé
- Lien vers un programme à compléter si besoin
- Paramètres à utiliser pour tester la descente de gradient et le recuit simulé
- Descente de gradient => convergence vers le minimum local x1 : xk = 1.369 avec f(xk) = -1.379
- x0 = 0
- Gamma = 0.01
- max Iterations = 20
- Recuit simulé => convergence vers le minimum global x2 : xk = 4.326 avec f(xk) = -6.914
- x0 = 0
- T0 = 100
- longuer Palier Température = 25
- alpha = 0.75
- max Températures = 100 (nombre de paliers de température)
- Vidéo de l'animation montrant l'exploration faite par le recuit simulé
- Descente de gradient => convergence vers le minimum local x1 : xk = 1.369 avec f(xk) = -1.379
- Cours 3 - Déterminer le minimum d'une fonction - Optimisation par essaims particulaires
- Cours 4 - Un perceptron linéaire pour classifier - Apprentissage par descente de gradient
- Lien vers un programme à compléter
- Lien vers programme complert
- Cours 5 - Résoudre le problème du voyageur de commerce avec un algorithme génétique