Un exemple pour mieux comprendre

Un étudiant cherche à obtenir les meilleures notes possibles à une UE composée de trois évaluations. Si on appelle \(n_1\), \(n_2\), \(n_3\) respectivement sa note sur 20 à chacune des évaluations, alors le problème d'optimisation se poserait ainsi :

\(\textrm{Maximiser } n_1 \textrm{ et } \textrm{Maximiser } n_2 \textrm{ et } \textrm{Maximiser } n_3\)

Dans le cadre de ce cours, on se limitera à l'optimisation mono-critère, c'est à dire qu'on ne sera capable de résoudre que des problèmes d'optimisation caractérisés par une unique fonction objectif de type scalaire. Dans l'exemple, on suppose que la note d'UE est égale à la moyenne des trois notes (chaque évaluation a le même poids), une fonction objectif (ou critère) scalaire, f, peut ainsi être définie :

Maximiser \(f(n_1, n_2, n_3)=(n_1+n_2+n_3)/3\)

L'étudiant veut donc maximiser cette fonction objectif qui dépend de trois variables supposées indépendantes (\(n_1, n_2, n_3\)). On va chercher leurs valeurs pour maximiser f. Ces trois variables sont appelées variables d'optimisation ou variables de décision (ou variable de contrôle).

Ce problème d'optimisation est pour l'instant sans contrainte. Les contraintes correspondent à des relations mathématiques que doivent vérifier les variables d'optimisation à la solution trouvée. Il est parfois possible de définir un domaine de définition pour les variables d'optimisation. C'est le cas ici puisque chacune des notes est par définition comprise entre 0 et 20. Le problème d'optimisation devient :

Maximiser \(f(n_1, n_2, n_3)=(n_1+n_2+n_3)/3\)

\(0≤n_1≤20 ; 0≤n_2≤20 ; 0≤n_3≤20\)

Intuitivement, on sait que la solution de ce problème d'optimisation, notée avec un astérisque, est obtenue pour : \(n_1^*=20, n_2^*=20, n_3^*=20\). La valeur optimale de la fonction objectif est alors \(f=20\).

Pour résoudre cet exemple (simpliste), il a été nécessaire d'analyser le problème (obtenir la meilleure note possible à l'UE constituée de 3 évaluations), d'identifier les variables de décisions (\(n_1, n_2, n_3\)), de modéliser le problème (la moyenne est ici la fonction objectif qui dépend des variables de décision), pour finalement trouver intuitivement la solution mathématique du problème d'optimisation.

Compliquons maintenant l'exemple en imaginant qu'il est possible de prévoir la note obtenue à une évaluation selon le temps de révision passé. Soit \(t_1, t_2, t_3\) représentant les temps de révision exprimés en heure pour chacune des trois évaluations, et supposons qu'on soit capable de définir les relations suivantes entre les notes obtenues et le temps de révision :

\(n_1=3*t_1\)

\(n_2=t_2*t_2\)

\(n_3=t_3*(10-t_3)\)

D'autre part, il est supposé que l'étudiant ne pourra réviser cette UE que pendant 10 heures au maximum. Le nouveau problème d'optimisation s'écrit alors :

Maximiser \(f(t_1, t_2, t_3)=(3*t_1+t_2*t_2+t_3*(10-t_3))/3\)

\(t_1+t_2+t_3≤10\)

\(0≤3*t_1≤20\)

\(0≤t_2*t_2≤20\)

\(0≤t_3*(10-t_3)≤20\)

On constate que les variables de décision ont été modifiées. D'autre part, les domaines définition des notes ainsi que la limite du temps de travail maximal entraînent des inégalités qui doivent être vérifiées à la solution, c'est ce qu'on appelle des contraintes inégalité. Le problème est devenu un problème d'optimisation avec contraintes : à la solution, des relations mathématiques, appelées contraintes, doivent être satisfaites. D'un point de vue général, les contraintes sont exprimées sous forme d'inégalités et sous forme d'égalités (contraintes égalité).

Remarque : selon les auteurs, le domaine de définition des variables de décision est considéré formellement comme une contrainte ou non.

Cet exemple simple montre qu'avant toute résolution du problème d'optimisation, il y a une phase de « modélisation mathématique » du problème, incluant une étape d'identification des variables de décision, de définition de la fonction objectif et de la description mathématique des contraintes imposées aux variables d'optimisation.