Hollie Little Pink Laptop.jpg
Garçon devant un ordinateur.jpg

Le Livre d'or  • avoir tout Vikidia hors-connexion

Participez à améliorer Vikidia : Pilpay, L'Île au trésor, Sorgho, Chasseur-cueilleur, et 300 autres articles importants et trop courts à compléter. Vos contributions sont les bienvenues !

Théorie des probabilités

Une page de Vikidia, l’encyclopédie junior
Aller à la navigation Aller à la recherche
Cet article présente le domaine mathématique, voir l'article probabilité pour la notion de base.

La théorie des probabilités , ou les probabilités, est le domaine des mathématiques qui étudie les phénomènes où intervient le hasard. Le but est de mesurer le degré d'incertitude d'un résultat ou d'une prédiction lors d'une expérience dite aléatoire à l'aide de probabilités. Ce domaine est relié à l'analyse et en utilise les méthodes.

Histoire[modifier | modifier le wikicode]

Les prémices[modifier | modifier le wikicode]

Un dé de la Rome Antique (Vidy Roman Museum)

Pendant l'Antiquité, l'aléatoire n'a pas été un objet d'étude mathématique. Cependant les jeux de dés existaient en Egypte antique, en Mésopotamie ou en Inde dès le IIIe millénaire avant J-C. On a même retrouvé des dés pipés, ce qui montre qu'une connaissance, au moins pratique, des lois de l'équité existait.

Les philosophes de la Grèce Antique ont réfléchi à la notion d'incertitude. Dans l'Ethique à Nicomaque, Aristote (IVe siècle av. J-C), définit le concept de probable1 comme étant ce qui est généralement admis comme vrai pour la plupart des hommes, sans pour autant être totalement certain.

Dans la Rome Antique, les rentes viagères apparaissent. Le montant de la rente est basée sur le hasard, puisqu'elles consistent en une sorte de pari sur la durée de vie du vendeur, mais aussi sur des tables de valeurs (comme celles du jurisconsulte Ulpien au IIIe siècle apr. J-C). Comme on le voit, les statistiques et les probabilités sont déjà intimement mêlées.

À partir du XIIe siècle, le développement du commerce, notamment maritime, nécessite d'améliorer la prévision des risques. En outre, à partir du XIVe siècle, les navires sont assurés de plus en plus souvent.

Aux XVIIe et XVIIIe siècles[modifier | modifier le wikicode]

Ce sont les jeux de cartes qui vont donner l'impulsion du calcul des probabilités. Importés d'Asie au XIVe siècle, ces jeux développent souvent des règles complexes sur les paris et les gains. Dans les siècles qui suivent, certains mathématiciens, comme Luca Pacioli, Niccolo Tartaglia, Girolamo Cardano ou Galilée, cherchent à résoudre des problèmes inspirés par des parties.

Une page de la première lettre entre Pascal et Fermat

On considère généralement que la naissance des probabilités se fait à travers la correspondance entre Blaise Pascal et Pierre de Fermat en 1654. Ils ont répondu au problème des partis posé par Antoine Gombaud, chevalier de Méré : comment partager les gains entre les joueurs quand la partie est interrompue à un moment quelconque ? Cette théorie est d'abord appelée géométrie aléatoire, calcul conjectural ou arithmétique politique.

Le physicien et mathématicien hollandais Christian Huygens publie en 1657 le premier livre sur les probabilités : De ratiociniis in ludo aleae (Raisonnements sur les jeux de dés). Il fait connaître les raisonnements de Fermat et Pascal2, définit l'espérance de gain et résout 5 autres problèmes (partage des gains, jeux de dés, tirage dans des urnes).

Au XVIIIe siècle, plusieurs mathématiciens développent le calcul des probabilités. Notamment :

  • en 1708, Pierre Rémont de Montmort présente la formule du binôme de Newton ;
  • en 1713, Jakob Bernouilli définit la notion de variable aléatoire et énonce une première version de la loi des grands nombres ;
  • en 1718, Abraham de Moivre utilise les règles du calcul combinatoire et les probabilités conditionnelles, décrit la loi binomiale et énonce une première version du théorème central limite ;
  • dans les années 1730-1750, Daniel Bernouilli et Leonhard Euler appliquent le calcul des probabilités aux problèmes d'assurance, à l'astronomie et au calcul d'erreur ;
  • en 1764, Thomas Bayes énonce la formule de Bayes.

Les probabilités restent jusqu'à alors des probabilités discrètes.

Aux XIXe et XXe siècles[modifier | modifier le wikicode]

Au début du XIXe siècle, le statut des probabilités n’est pas assuré. Son enseignement tarde à s’imposer (à la faculté de Paris, un cours n’est mis en place qu’en 1834) et sa place dans les mathématiques est contestée3.

Durant la première moitié du siècle, les mathématiciens définissent le vocabulaire et les notations, abordent les probabilités continues et décrivent les lois de densités encore utilisées de nos jours. On peut surtout citer les avancées de Carl Friedrich Gauss, Pierre-Simon Laplace et Siméon Denis Poisson. La deuxième moitié du XIXe siècle est axée sur la naissance des statistiques avec les travaux d'Adolphe Quételet, et leurs liens avec les probabilités.

C’est au début du XXe siècle que les probabilités vont être assises sur des bases solides.En 1933, le russe Andreï Kolmogorov établit les axiomes des probabilités, en utilisant la théorie de l’intégration refondée dans les années 1900-1910 par Emile Borel et Henri Léon Lebesgues. Les probabilités sont ainsi unifiées et rattachées à l’analyse.

Par la suite, les probabilités connaissent un important développement et de nombreuses applications dans bien des domaines :

  • en 1902, Andreï Markov invente les chaînes de Markov, qui peuvent modéliser des phénomènes très divers (météorologie, cours de la bourse, indexation des pages Internet sur Google…) ;
  • en 1939, Jean Ville invente le processus de martingale ;
  • dans les années 1940 et 1950, John von Neumann et John Forbes Nash développent la théorie des jeux ;
  • dans les années 1950 et 1960, Claude Shannon et Norbert Wiener posent les bases de la théorie de l’information.

Domaines, méthodes et outils[modifier | modifier le wikicode]

Probabilités élémentaires[modifier | modifier le wikicode]

Un exemple de probabilités discrètes : lancement de deux dés à six faces et somme des résultats)

La probabilité d'un événement est un nombre compris entre 0 et 1. Plus ce nombre est proche de 1, plus le risque, ou la chance, que l'événement se produise est grand. On note cette probabilité . On peut la calculer en utilisant des formules ou en effectuant l’expérience un grand nombre de fois.

Exemple : on lance un dé possédant six faces
La probabilité d’obtenir un nombre pair est de 1 chance sur 2. On note
Article à lire : Probabilité.

On distingue deux situations :

  • Les probabilités discrètes : les différents résultats possibles sont identifiés et on peut les compter (jeu de pile ou face, tirage au sort de boule numérotée au loto, lancer de dé…) ; les calculs de probabilités sont liées au dénombrement et au comptage
  • Les probabilités continues : les différents résultats possibles sont des mesures pouvant prendre une infinité de valeurs (mesurer la taille d’une personne prise au hasard, étudier la répartition des salaires dans un pays, prédire l’évolution de la température…) ; les calculs de probabilités font intervenir l’intégration

Dans les probabilités on s’intéresse aussi souvent à la dépendance de deux évènements : on dit que deux événements sont indépendants si le fait d'obtenir un des deux événements n’influe pas sur le fait d'obtenir l'autre.

Exemple : dans une urne, il y a cinq boules noires et quatre boules blanches
On tire au hasard une boule dans l’urne, on remet la boule piochée, et on tire au hasard une boule dans l’urne. Les deux résultats sont indépendants car on a remis la boule. Dans les deux tirages et
On tire au hasard une boule dans l’urne, on met de côté la boule piochée, et on tire au hasard une autre boule dans l’urne. Les deux étapes sont dépendanets, car ne pas remettre la boule change les probabilités de la deuxième étape.
Trois exemples de lois de probabilités : loi normale (en rouge), loi de Poisson (en bleu), combinaisons de mesures de probabilités (en noir)
En effet, si on tire une boule noire à la première étape, à la deuxième étape on a . Si on tire une boule blanche à la première étape, à la deuxième étape, on a et .

Des formules existent pour calculer des probabilités : formule de Poincaré, formule des probabilités totales, théorème de Bayes. Pour mieux comprendre une situation, on peut être amené à calculer des indicateurs supplémentaires : espérance, étendue, moyenne, variance, écart-type…

Certaines situations se rencontrent souvent et leur structure ont été bien étudiée. On les appelle des lois de probabilités et il en existe de plusieurs types  : loi de Bernoulli (situation de pile ou face), loi binomiale (loi de Bernoulli répétée plusieurs fois), loi normale (étudie la répartition d’un caractère dans une population), loi de Poisson (étudie les évènements rares et les accidents)...


Théorie des probabilités[modifier | modifier le wikicode]

Schéma montrant comment il faut interpréter ce théorème

La théorie moderne des probabilités est celle d’Andreï Kolmogorov. Elle se base sur la théorie de la mesure et la théorie de l'intégration. Les lois de probabilité définissent des fonctions particulières qu'on appelle des variables aléatoires. C'est sur ces variables aléatoires que les calculs se mènent.

Les mathématiciens s'intéressent souvent à la répétition des expériences aléatoires, qui se traduit dans les calculs par une suite de variables aléatoires. On cherche notamment à déterminer la convergence de la suite : vers quoi évolue-t-on quand on répète un grand nombre de fois une expérience aléatoire ?

Plusieurs théorèmes aident à ces calculs :

  • le théorème central limite : quand on répète un grand nombre de fois une expérience aléatoire, la répartition des résultats se rapproche d'une loi normale
  • la loi des grands nombres : quand on répète un grand nombre de fois une expérience aléatoire, la moyenne des résultats se rapproche de la moyenne théorique du phénomène aléatoire

erreur au hasard en racine carré des grand nombres d'événements[modifier | modifier le wikicode]

Pour un grand nombre N d'essais, de tests indépendants l'erreur du au hasard est en racine carrée du nombre d'événements et donc l'erreur relative quadratique est en 1/

Par exemple si on marche au hasard sur une droite, soit en avant +1 ou soit en arrière -1, en tirant pile ou face un très grand nombre de fois en moyenne on n'avance pas du tout, on reste au point de départ, comme un ivrogne, mais au hasard on avance parfois devant ou en arrière avec une distance comme cette du nombre N de coups.

La raison simple est que la somme des carrés des déplacements +1 ou -1 est une somme de +1 tous positifs égale au nombre N de tirages au sort et donc l'écart quadratique moyen défini par la racine carrée des carrés des déplacements est égal à .

Cet écart quadratique indique l'amplitude des déplacements au hasard loin de la valeur moyenne qui est 0 le point de départ.

Ce type de marche au hasard est celui de la chaleur par diffusion, par exemple des électrons dans les métaux, qui vont dans tous les sens au hasard.

Ainsi la chaleur avance lentement en comme de diffusion, très lente et pas du tout à une vitesse constante.

Cette loi simple des erreurs ou des fluctuations en et en 1/ en valeur relative, est essentielle dans toute les évaluations statistiques et dans la théorie des probabilités.

Elle permet de dire si des résultats statistiques sont valables ou sans significations, indiscernables ( inférieurs dans la limite en 1/ ou totalement improbables ( trop loin de 1/ ) , par exemple pour croire ou ne pas croire en des prévisions d'élections futures.

Statistiques[modifier | modifier le wikicode]

Les statistiques concernent l'étude et l'analyse de données récoltées sur une population. Quand on ne peut pas interroger tous les éléments d'une population, on en interroge une petite partie. Les probabilités donnent les conditions pour que les résultats sur cette partie soient proches des résultats qu'on aurait obtenu sur l'ensemble de la population.

Article à lire : Statistiques.

Théorie des jeux[modifier | modifier le wikicode]

La théorie des jeux concerne l'étude des interactions entre individus et de leur choix dans une situation où des règles précises s'appliquent. Ces règles peuvent être connues des joueurs (comme dans les jeux de hasard ou en économie) ou inconnues (comme en biologie ou en démographie). Un débat existe pour savoir si la théorie des jeux décrit effectivement le réel et permet de faire des prédictions4.

Calcul stochastique[modifier | modifier le wikicode]

Graphe d'une chaîne aléatoire

Le calcul stochastique concerne l'étude des phénomènes qui évoluent au cours du temps de manière aléatoire. Cette suite de phénomène est représentée par une chaîne de Markov. Dans ces chaînes, le comportement à venir ne dépend que du temps présent, et non pas du temps passé. Le calcul stochastique utilise les matrices, la théorie des graphes, les dérivées partielles et les systèmes dynamiques.

Applications[modifier | modifier le wikicode]

Les jeux de hasard sont historiquement l'application principales des probabilités. Mais de nombreux autres domaines ont utilisé les probabilités :

  • les algorithmes de décision utilisent les probabilités pour estimer les phénomènes les plus risqués ; ils servent aux robots pour choisir le comportement le plus adapté (intelligence artificielle, filtres anti-pourriel, imagerie médicale, installations industrielles…)
  • les biologistes utilisent les probabilités dans le cadre de la théorie de l’évolution (les mutations et la diffusion des gènes se font aléatoirement), notamment le calcul stochastique et la théorie des jeux
  • en météorologie, les données recueillies par les stations météo permettent de calculer les probabilités d'évolution du temps en un endroit donné, et donc de faire des prévisions
  • les fluctuations des marchés financiers et de la bourse sont souvent représentées par des chaînes de Markov ; ces méthodes permettent de mieux apprécier les risques économiques et financiers, de calculer des assurances ou de mieux gérer certains stocks5.
  • le traitement d'image permet de compresser des fichiers volumineux ou d'améliorer des images de mauvaise qualité
  • le mouvement brownien décrit le mouvement aléatoire d'une particule dans un fluide ; il peut être étudié grâce au calcul stochastique, ce qui a des applications dans les télécommunications (les parasites peuvent être considérés comme un bruit blanc)
  • la mécanique quantique utilise les probabilités pour décrire les atomes : les particules (électrons, protons) ne sont pas situés précisément mais on peut donner la probabilité de leur présence à certains endroits

Interprétations[modifier | modifier le wikicode]

L'estimation d'une probabilité entraîne de nombreuses interrogations : la probabilité mesure-t-elle la tendance réelle d'un phénomène physique à se produire ? Est-elle une mesure du degré auquel on croit qu'un événement va se réaliser ? La connaissance ou non de l'ensemble (ou d'une partie) des caractéristiques du phénomènes influent-elles sur le résultat ?

Traditionnellement, on effectue deux catégorisations :

  • Approche fréquentiste (ou ontologique, ou empirique) contre approche épistémique (ou bayésienne)  : selon que l'individu puisse répéter l'expérience un grand nombre de fois dans les mêmes conditions ou que le phénomène soit unique et dépende des croyances de l'individu
  • Approche objective contre approche subjective : selon que tous les individus dispose d'informations suffisantes pour raisonner ou que les informations sont incomplètes ou insuffisantes

On croise ces catégories dans un tableau :

Probabilité objective Probabilité subjective
Probabilité ontologique probabilité de désintégration d'un élément radioactif, présence d'un électron en physique quantique, mouvement brownien, météorologie fluctuation des marchés financiers, choix d'une stratégie bancaire, apparition d'une catastrophe naturelle (séisme, éruption volcanique...)
Probabilité épistémique lancer de dé, tirage dans une urne, piochage de carte, jeux de roulette course hippique et paris sportifs, pari de Pascal, réussite à un examen, probabilité de survenue d'un accident ou de la fin du monde

Le problème de l'interprétation, du sens caché, devient bien plus fondamental pour la mécanique quantique, car les probabilités y sont essentielles, observées à chaque mesure expérimentale, mais restent mystérieuses pour nos habitudes à l'échelle macroscopique.

Ainsi un seul atome d'uranium a une probabilité de se désintégrer une seule fois avec une demi vie de un milliard d'années, mais on ne sait pas du tout pourquoi et comment cela se produit, demain, dans 100 millions d'années, ou 2 milliards d'années.

La mécanique quantique décrit ce hasard avec une fonction d'onde qui évolue sans le moindre hasard dans son évolution mathématiques, très similaire à celle d'une onde de vagues sur l'eau, mais le carré de la fonction d'onde qui sort de l'atome par effet tunnel de très faible amplitude donne la probabilité de désintégration, sans la moindre idée de ce qui se passe pour déterminer le moment de désintégration, hasard bien plus parfait que celui de dés, compréhensible, qu'il est facile de truquer avec un lest de plomb lourd caché sous une face.

On a essayé d'imaginer des variables cachées, comme pour la dynamique de dés, fonction des conditions de lancement des dés, faciles à truquer, mais alors on a démontré expérimentalement que cette dynamique de variables cachées est incompatible avec les expériences et les bases élémentaires mêmes de la mécanique macroscopique classique, causalité et localité, qui régissent le mouvement des dés qu'on lance.

Donc l'interprétation reste un problème fondamental, mais la fonction d'onde a une réalité néanmoins essentielle et utile, qui va permettre de réaliser des ordinateurs quantiques, qui se servent de la délocalisations de la fonction d'onde sur un très grand nombre d'ordinateurs virtuels connectés ( intrication quantique ) qui calculent tous en même temps de façon hyper complexe, jusqu'au moment d'une mesure qui donne le résultat au hasard d'une seule possibilité de ces ordinateurs quantiques.

Ainsi on observe déjà la réalité de cette suprématie quantique sur des versions préliminaires avec des calculs en quelques heures au lieu de milliards d'années pour des ordinateurs usuels classiques.

On utilise le hasard, les probabilités, de la mécanique quantique sans la comprendre.

Références[modifier | modifier le wikicode]

Livres historiques[modifier | modifier le wikicode]

  • De ratiociniis in ludo aleae, Christian Huygens, 1657
  • Essai sur les Jeux de Hasard, Pierre Rémond de Montmort, 1708
  • Ars Conjectandi, Jakob Bernouilli, 1713
  • The Doctrine of Chances, Abraham de Moivre, 1718
  • An essay towards solving a problem in the doctrine of chances, Thomas Bayes, 1764
  • Éléments du calcul des probabilités, Condorcet, 1792
  • Théorie analytique des probabilités, Pierre-Simon de Laplace, 1814
  • Théorie des probabilités, Adolphe Quetelet, 1853
  • Grundbegriffe des Warscheinlichkeitrechnung, Andreï Kolmogorov, 1933
  • Theory of Games and Economic Behavior, John von Neumann et Oskar Morgenstern, 1944

Bibliographie[modifier | modifier le wikicode]

  • Une histoire des mathématiques : Routes et dédales, A. Dahan-Dalmedico et J. Peiffer, Seuil, 1986
  • Des mathématiciens de A à Z, B. Hauchecorne et D. Surateau, Ellipse, 1996
  • Prédiction & Probabilité dans les sciences, E. Klein et Y. Sacquin, Éditions frontières, 1998
  • Kolmogorov : Quelques aspects de l'œuvre probabiliste, L. Chaumont, L. Mazliak et M. Yor, Belin, 2003
  • À l'école des probabilités, B. Courtebras, Presses universitaires de Franche-Comté, 2006
  • La révolution mathématique du XVIIe siècle, E. Barbin, Ellipses, 2006
  • Mathematics and Social Sciences no 3,‎ 2006
  • Mathématiser le hasard, B. Courtebras, Vuibert, 2008
  • Histoire des mathématiques, J. C. Baudet, Vuibert, 2014

Liens externes[modifier | modifier le wikicode]

Notes[modifier | modifier le wikicode]

  1. La traduction du mot grec signifiant probable est en latin « probabilis » ou « verisimilis ». Au Moyen-Âge, le probable et le vraisemblable sont donc très proches.
  2. « Il faut savoir d'ailleurs qu'il y a un certain temps que quelques-uns des plus célèbres mathématiciens de toute la France se sont occupés de ce genre de calcul, afin que personne ne m'attribue l'honneur de la première invention qui ne m'appartient pas. » Huygens dans une lettre à Frans Van Shooten.
  3. « Prétendre évaluer une probabilité est une escroquerie scientifique et une malhonnêteté morale » Auguste Comte
  4. Ariel Rubinstein et Bernard Guerrien pensent par exemple qu'elle permet de penser et d'analyser des situations à posteriori, mais pas de faire des prédictions à priori.
  5. Il est à noter que les mathématiques sont utilisées les activités de spéculation, comme dans la crise des subprimes de 2008.
Portail des mathématiques —  Les nombres, la géométrie, les grands mathématiciens...