Présentation

Article

1 - MÉTHODES DIRECTES À UNE VARIABLE

2 - MÉTHODE DIRECTE À VARIABLES MULTIPLES : LA MÉTHODE SIMPLEX

3 - EXEMPLES D’APPLICATION DE LA MÉTHODE SIMPLEX

4 - PRINCIPALES CARACTÉRISTIQUES DE LA MÉTHODE SIMPLEX

| Réf : P228 v1

Méthodes directes à une variable
Méthodes directes d’optimisation - Méthodes à une variable et Simplex

Auteur(s) : Catherine PORTE

Relu et validé le 01 nov. 2016

Pour explorer cet article
Télécharger l'extrait gratuit

Vous êtes déjà abonné ?Connectez-vous !

Sommaire

Présentation

Auteur(s)

  • Catherine PORTE : Docteur ès sciences physiques - Maître de conférences - Laboratoire de Chimie Industrielle Génie des procédés au Conservatoire national des arts et métiers

Lire cet article issu d'une ressource documentaire complète, actualisée et validée par des comités scientifiques.

Lire l’article

INTRODUCTION

L’optimisation est un ensemble de techniques permettant de trouver les valeurs des variables qui rendent optimale une fonction de réponse, appelée aussi fonction objectif. Sur le plan mathématique, cela correspond à la recherche des extrémums de fonctions à plusieurs variables. Dans le domaine des sciences appliquées, il s’agit en général de trouver l’optimum de la réponse d’opérations industrielles ou d’expériences de laboratoire.

L’objectif de l’optimisation est représenté sur les figures 1 a et b ; sur la figure a, la réponse y est fonction d’une seule variable, x, et l’on recherche la valeur, xmax, comprise entre les bornes xA et xB qui rend optimale la valeur de la réponse y.

Sur la figure b, la fonction objectif dépend de deux variables x1 et x2 ; elle est représentée sous la forme de courbes de niveaux ou courbes d’isoréponses. On recherche alors les coordonnées, x1max et x2max, qui correspondent à la valeur optimale de y.

Une fonction objectif peut être :

  • le rendement d’une opération (maximum) ;

  • la pureté d’un produit (maximum) ;

  • la concentration en un produit (maximum ou minimum suivant qu’il s’agit du produit attendu ou d’une impureté indésirable) ;

  • le coût d’une opération (minimum) ;

  • l’efficacité d’une séparation (maximum), en chromatographie par exemple ;

  • les caractéristiques du produit (maximum, minimum ou valeur nominale), etc.

La fonction objectif peut aussi être la somme, pondérée ou non, de plusieurs réponses. Ce sera le résultat observé, ou mesuré, de l’opération effectuée, que ce soit une analyse, une synthèse chimique, une extraction, une formulation, etc.

Dans tous les cas, la valeur de la réponse est subie par l’expérimentateur.

La fonction objectif dépend d’un certain nombre de facteurs. On peut définir trois types de facteurs :

  • les facteurs aléatoires ;

  • les facteurs qui seront maintenus à un niveau donné tout au long des expérimentations ;

  • les facteurs dont on désire faire varier la valeur au cours des différentes expérimentations ; elles seront nommées variables.

Les variables peuvent être par exemple :

  • le pH ou la température du milieu réactionnel ;la concentration, la masse ou le volume de réactifs ;le débit d’introduction de solvants, etc.

Il est évidemment nécessaire que les valeurs des variables évoluent indépendamment les unes des autres.

Dans tous les cas, la valeur de la variable est imposée par l’expérimentateur.

Pour pouvoir mettre en œuvre toute technique d’optimisation, il faut être capable de maintenir les variables et les facteurs constants aux niveaux désirés. Il est donc souhaitable que les méthodes d’optimisation soient mises en œuvre conjointement avec des techniques d’automatisation, de régulation et de contrôle.

Il existe de très nombreuses méthodes d’optimisation [1] à [13]. La plupart d’entre elles ont été créées pour traiter le problème mathématique consistant à trouver l’extrémum de fonctions multivariables, non linéaires et soumises, ou non, à des contraintes. Certaines techniques ont été étudiées dans le but de donner aux expérimentateurs une possibilité rationnelle de déterminer les optimums de fonctionnement de leurs systèmes physiques.

Les méthodes d’optimisation peuvent être classées en fonction du type d’étude que l’on souhaite mener.

  • Premier cas : le phénomène physique est suffisamment connu pour qu’il soit possible de créer un modèle représentatif du phénomène. On recherchera alors les extrémums de ce modèle de connaissance par les voies classiques (dérivation, méthode de Lagrange).

  • Deuxième cas : le phénomène étudié est trop complexe pour en déterminer un modèle physiquement significatif. On désire alors seulement obtenir une relation entre les variables et la réponse, qui soit représentative du phénomène étudié. On postulera alors une représentation mathématique empirique sous forme d’une corrélation dont les paramètres seront ensuite déterminés afin de déduire les variables vraiment influentes et de calculer a priori les valeurs de la fonction objectif ; on utilisera ensuite des méthodes d’optimisation pour déterminer l’optimum de fonctionnement. Dans ce cas, on dit qu’il s’agit d’une méthode indirecte d’optimisation puisqu’il faut au préalable avoir un modèle mathématique.

  • Troisième cas : on désire connaître uniquement les conditions de fonctionnement optimal sans rechercher une représentation mathématique du phénomène. Dans ce cas, il s’agit d’une méthode directe d’optimisation puisqu’elle ne nécessite aucun modèle mathématique.

Dans cet article, nous décrivons uniquement le troisième cas. Le traitement du premier cas dépend directement du processus étudié et du modèle physique correspondant. On rattache à ce type l’optimisation en chromatographie, par les diagrammes à fenêtres qui impliquent l’utilisation d’une relation linéaire connue entre la réponse et les variables [14] [15]. Le deuxième cas, quant à lui, a été décrit dans les Techniques de l’Ingénieur [16] [17].

Nous exposerons d’abord les méthodes à une variable et ensuite les méthodes à plusieurs variables.

L’article se compose de deux parties :

Les références bibliographiques sont regroupées dans Plans d’expériences.

Cet article est réservé aux abonnés.
Il vous reste 93% à découvrir.

Pour explorer cet article
Téléchargez l'extrait gratuit

Vous êtes déjà abonné ?Connectez-vous !


L'expertise technique et scientifique de référence

La plus importante ressource documentaire technique et scientifique en langue française, avec + de 1 200 auteurs et 100 conseillers scientifiques.
+ de 10 000 articles et 1 000 fiches pratiques opérationnelles, + de 800 articles nouveaux ou mis à jours chaque année.
De la conception au prototypage, jusqu'à l'industrialisation, la référence pour sécuriser le développement de vos projets industriels.

VERSIONS

Il existe d'autres versions de cet article :

DOI (Digital Object Identifier)

https://doi.org/10.51257/a-v1-p228


Cet article fait partie de l’offre

Qualité et sécurité au laboratoire

(129 articles en ce moment)

Cette offre vous donne accès à :

Une base complète d’articles

Actualisée et enrichie d’articles validés par nos comités scientifiques

Des services

Un ensemble d'outils exclusifs en complément des ressources

Un Parcours Pratique

Opérationnel et didactique, pour garantir l'acquisition des compétences transverses

Doc & Quiz

Des articles interactifs avec des quiz, pour une lecture constructive

ABONNEZ-VOUS

1. Méthodes directes à une variable

Pour que ces méthodes puissent être employées avec efficacité, il est nécessaire que, dans l’intervalle étudié, la fonction de réponse soit unimodale, c’est-à-dire qu’elle présente un seul optimum. Cela est souvent le cas dans la mesure où l’expérimentateur, compte tenu de son expérience du phénomène, se place dans une zone relativement peu éloignée de l’optimum.

1.1 Méthode dichotomique séquentielle

C’est la méthode intuitive la plus simple et elle procède, pour la recherche d’un maximum, par exemple, de la façon suivante (figure 2) [1] et [11c] :

Dans l’intervalle de recherche [xA ; xB], deux mesures sont effectuées aux points d’abscisses x1 et x2 proches du milieu de l’intervalle et suffisamment éloignés l’un de l’autre pour que les réponses en ces points soient significativement différentes. On constate, figure 2, que la réponse au point d’abscisse x1 est inférieure à la réponse au point d’abscisse x2 (y1 < y2). On élimine alors la zone [xA ; x1] soit approximativement la moitié de l’intervalle d’étude.

On effectue ensuite à nouveau deux mesures de part et d’autre du centre de l’intervalle restant, [x1 ; xB], c’est-à-dire aux points d’abscisses x3 et x4. Ici, la réponse au point d’abscisse x3 étant la plus faible, on éliminera, la zone [x1 ; x3].

On procède de cette manière jusqu’à l’obtention de la précision souhaitée.

Pour évaluer l’efficacité de cette méthode, on peut relier le nombre d’essais, N, à l’intervalle initial, [xA ; xB], et à l’intervalle restant, Δ (tableau 1).

On a :

m...

Cet article est réservé aux abonnés.
Il vous reste 93% à découvrir.

Pour explorer cet article
Téléchargez l'extrait gratuit

Vous êtes déjà abonné ?Connectez-vous !


L'expertise technique et scientifique de référence

La plus importante ressource documentaire technique et scientifique en langue française, avec + de 1 200 auteurs et 100 conseillers scientifiques.
+ de 10 000 articles et 1 000 fiches pratiques opérationnelles, + de 800 articles nouveaux ou mis à jours chaque année.
De la conception au prototypage, jusqu'à l'industrialisation, la référence pour sécuriser le développement de vos projets industriels.

Cet article fait partie de l’offre

Qualité et sécurité au laboratoire

(129 articles en ce moment)

Cette offre vous donne accès à :

Une base complète d’articles

Actualisée et enrichie d’articles validés par nos comités scientifiques

Des services

Un ensemble d'outils exclusifs en complément des ressources

Un Parcours Pratique

Opérationnel et didactique, pour garantir l'acquisition des compétences transverses

Doc & Quiz

Des articles interactifs avec des quiz, pour une lecture constructive

ABONNEZ-VOUS

Lecture en cours
Méthodes directes à une variable
Sommaire
Sommaire

BIBLIOGRAPHIE

  • (1) - WILDE (D.J.), BEIGHTLER (C.S.) -   Foundations of Optimization  -  , 1967. Prentice-Hall.

  • (2) - FLETCHER (R.) -   Practical Methods of Optimization  -  , vol 1, Unconstrained optimization, 1980, John Wiley & Sons Ltd.

  • (3) - RAY (W.H.), SZEKELY (J.) -   Process Optimization  -  . 1973 John Wiley & Sons, Inc.

  • (4) - RUDD (D.F.), WATSON (C.C.) -   Strategy of process engineering  -  . 1968 John Wiley & Sons.

  • (5) - BOX (M.J.), DAVIES (D.), SWANN (W.H.) -   Techniques d’optimisation non linéaire  -  . Monographie I.C.I., 1971 no 5. Entreprise Moderne d’Édition.

  • (6) - KUESTER (J.L.), MIZE (J.H.) -   Optimizations techniques with FORTRAN  -  . 1971 McGraw Hill.

  • ...

DANS NOS BASES DOCUMENTAIRES

  • *

Cet article est réservé aux abonnés.
Il vous reste 94% à découvrir.

Pour explorer cet article
Téléchargez l'extrait gratuit

Vous êtes déjà abonné ?Connectez-vous !


L'expertise technique et scientifique de référence

La plus importante ressource documentaire technique et scientifique en langue française, avec + de 1 200 auteurs et 100 conseillers scientifiques.
+ de 10 000 articles et 1 000 fiches pratiques opérationnelles, + de 800 articles nouveaux ou mis à jours chaque année.
De la conception au prototypage, jusqu'à l'industrialisation, la référence pour sécuriser le développement de vos projets industriels.

Cet article fait partie de l’offre

Qualité et sécurité au laboratoire

(129 articles en ce moment)

Cette offre vous donne accès à :

Une base complète d’articles

Actualisée et enrichie d’articles validés par nos comités scientifiques

Des services

Un ensemble d'outils exclusifs en complément des ressources

Un Parcours Pratique

Opérationnel et didactique, pour garantir l'acquisition des compétences transverses

Doc & Quiz

Des articles interactifs avec des quiz, pour une lecture constructive

ABONNEZ-VOUS