Présentation
Auteur(s)
-
Bernard DEMOULIN : Docteur ès Sciences Physiques - Maître de conférences à l’Université des Sciences et Techniques de Lille Flandres‐Artois, Laboratoire de Radiopropagation et Électronique URA CNRS n 289
Lire cet article issu d'une ressource documentaire complète, actualisée et validée par des comités scientifiques.
Lire l’articleINTRODUCTION
Le contrôle de processus industriels et de certaines expériences scientifiques nécessite souvent l’acquisition et le traitement d’un volume important de résultats de mesures.
Si les phénomènes physiques contrôlés par les mesures sont déterministes, l’évolution des données est prévisible au moyen des lois mathématiques se résumant à des fonctions d’une ou de plusieurs variables.
Si les phénomènes sont, au contraire, gérés par des processus stochastiques, les données provenant de la mesure auront un caractère purement aléatoire. Toute tentative cherchant à déduire l’évolution prévisionnelle de ces résultats passera donc par une étude attentive de leurs propriétés statistiques. Ce problème est d’ailleurs bien mis en relief lors des sondages d’opinion où, à partir d’un nombre forcément limité de questions/réponses, on veut en déduire le comportement d’un macrosystème.
Les statistiques et les probabilités ont donc pour vocation de traiter des informations à caractère aléatoire et, surtout, d’en extrapoler le comportement. Les statistiques concernent plutôt les méthodes et techniques permettant de choisir l’information et de tester des modèles, alors que les probabilités constituent l’outil mathématique utilisé pour simuler le comportement physique d’un macrosystème.
Les probabilités apparaissent, dans leur aspect le plus concret, comme des valeurs numériques ou, plus souvent, des fonctions mathématiques précisant l’occurrence d’événements ou de données à caractère aléatoire que l’on préfère d’ailleurs appeler variables aléatoires.
Les propriétés les plus élémentaires des probabilités amènent à distinguer deux types de variables : les variables à échelonnement discret et les variables à évolution continue. Il faut dire que la décision sur le choix de l’une ou l’autre de ces représentations est, dans la majorité des situations, reliée aux propriétés physiques des systèmes objets de la simulation.
C’est à partir de ces premières considérations que sont introduits les moments et la variance des variables aléatoires et leurs fonctions caractéristiques. Si ces notions revêtent un caractère mathématique un peu abstrait, elles offrent aux statisticiens un moyen intéressant pour calculer la valeur moyenne d’une variable et la dispersion de cette variable. Des exemples empruntés à la physique microscopique aideront à comprendre l’immense intérêt pratique de ces notions.
En effet, l’étude de la cinétique des gaz fait intervenir un grand nombre de particules, dont il est impensable de décrire de façon déterministe le comportement individuel. Les probabilités aident à résoudre ces difficultés, puisqu’elles parviennent à relier des paramètres microscopiques, comme la masse et la vitesse des particules, à des paramètres macroscopiques accessibles à la mesure, telles la pression ou la température d’un gaz.
Les lois de probabilité utilisées en simulation ne résultent pas forcément des propriétés physiques des systèmes ; il faut souvent recourir à des catalogues de lois fondamentales dont nous exposerons les plus connues et utilisées.
Une attention particulière sera accordée à la loi normale ou loi de Gauss, dont bon nombre de phénomènes physiques suivent le profil.
Les mesures impliquent souvent le traitement d’un grand nombre de variables aléatoires ; nous dirons qu’il s’agit de systèmes à grand degré de liberté. Les tests statistiques utilisés avec ce type de variables ont souvent recours à la loi normale étendue ainsi qu’aux lois du χ 2 et de Student, dont nous décrivons les propriétés essentielles. Ces deux dernières lois convergent vers la loi normale lorsque le nombre de degrés de liberté augmente indéfiniment. Cette propriété remarquable, appelée limite centrale, est utilisée lors de l’estimation numérique des moyennes.
De nombreux processus aléatoires sont aussi gérés par des systèmes à deux variables qui peuvent ou non être liées statistiquement. Les notions de coefficient de corrélation et de courbes de régression sont particulièrement bien adaptées à ces systèmes à deux degrés de liberté, dans la mesure où elles en concrétisent la dépendance statistique.
VERSIONS
- Version courante de mars 2013 par Bernard DEMOULIN
DOI (Digital Object Identifier)
Cet article fait partie de l’offre
Instrumentation et méthodes de mesure
(50 articles en ce moment)
Cette offre vous donne accès à :
Une base complète d’articles
Actualisée et enrichie d’articles validés par nos comités scientifiques
Des services
Un ensemble d'outils exclusifs en complément des ressources
Un Parcours Pratique
Opérationnel et didactique, pour garantir l'acquisition des compétences transverses
Doc & Quiz
Des articles interactifs avec des quiz, pour une lecture constructive
Présentation
5. Lois de probabilité
Une tâche essentielle et difficile rencontrée par le statisticien concerne la recherche de lois de probabilité. Les lois de probabilité sont des fonctions mathématiques dont la vocation est de simuler le comportement statistique de certains phénomènes physiques ou encore de présenter des résultats de mesure gérés par des processus aléatoires.
La loi de probabilité peut être déduite de l’expérience sous forme d’histogrammes ; bien que très fréquente, cette représentation n’est pas très souple ; au traitement mathématique, on préfère souvent une présentation analytique.
Certaines lois de probabilité se déduisent directement des propriétés physiques des phénomènes simulés. C’est notamment le cas de la théorie cinétique des gaz ou encore de la désintégration nucléaire des atomes, tel que ces deux exemples sont illustrés dans les paragraphes qui précèdent. Tous les phénomènes physiques ou résultats de mesure ne se prêtent pas à une représentation aussi rigoureuse. Le principe consiste alors à rechercher, dans la ressource des lois proposées par le mathématicien, le modèle qui s’accorde le mieux avec les phénomènes que l’on souhaite simuler.
Il existe de nombreux modèles de lois de probabilité qui possèdent tous leurs critères spécifiques ; nous insisterons plus particulièrement sur les quatre lois les plus usuelles :
-
la loi uniforme et la loi normale qui s’adressent aussi bien aux variables aléatoires continues que discrètes ;
-
la loi binomiale et la loi de Poisson pour les variables discrètes et entières.
Ces lois possèdent toutes un caractère commun, dans la mesure où il s’agit de fonctions analytiques qui dépendent de paramètres très étroitement liés aux valeurs moyennes et écarts‐types.
Nous donnons dans les paragraphes suivants l’expression mathématique des lois fondamentales, ainsi que les moments du premier et second ordres des variables qui leur sont associées. Nous précisons aussi la fonction caractéristique dont nous avons signalé le rôle important au paragraphe 4.5...
Cet article fait partie de l’offre
Instrumentation et méthodes de mesure
(50 articles en ce moment)
Cette offre vous donne accès à :
Une base complète d’articles
Actualisée et enrichie d’articles validés par nos comités scientifiques
Des services
Un ensemble d'outils exclusifs en complément des ressources
Un Parcours Pratique
Opérationnel et didactique, pour garantir l'acquisition des compétences transverses
Doc & Quiz
Des articles interactifs avec des quiz, pour une lecture constructive
Lois de probabilité
Cet article fait partie de l’offre
Instrumentation et méthodes de mesure
(50 articles en ce moment)
Cette offre vous donne accès à :
Une base complète d’articles
Actualisée et enrichie d’articles validés par nos comités scientifiques
Des services
Un ensemble d'outils exclusifs en complément des ressources
Un Parcours Pratique
Opérationnel et didactique, pour garantir l'acquisition des compétences transverses
Doc & Quiz
Des articles interactifs avec des quiz, pour une lecture constructive