Plan des savoirs optimisation étudiés

  • Cours 1 - Introduction générale
  • Cours 2 - Déterminer le minimum d'une fonction - Comparaison de la desccente de gradient et du recuit simulé
    • Lien vers un programme à compléter si besoin
    • Paramètres à utiliser pour tester la descente de gradient et le recuit simulé
      • Descente de gradient => convergence vers le minimum local x1 : xk = 1.369 avec f(xk) = -1.379
        • x0 = 0
        • Gamma = 0.01
        • max Iterations = 20
      • Recuit simulé => convergence vers le minimum global x2 : xk = 4.326 avec f(xk) = -6.914
        • x0 = 0
        • T0 = 100
        • longuer Palier Température = 25
        • alpha = 0.75
        • max Températures = 100 (nombre de paliers de température)
      • Vidéo de l'animation montrant l'exploration faite par le recuit simulé
  • Cours 3 - Déterminer le minimum d'une fonction - Optimisation par essaims particulaires
  • Cours 4 - Un perceptron linéaire pour classifier - Apprentissage par descente de gradient
    • Lien vers un programme à compléter
    • Lien vers programme complert
  • Cours 5 - Résoudre le problème du voyageur de commerce avec un algorithme génétique