Espérance mathématique Sommaire Motivations | Définition | Propriétés | Interprétation et applications | Notes et références | Annexes | Menu de navigationPascal, Fermat et la géométrie du hasardPascal, Fermat et la géométrie du hasardVan rekeningh in spelen van geluck/Du calcul dans les jeux de hasard, 1656-1657lire en lignep. 389Probabilités adaptées à la financem
ProbabilitésMathématiques financières
Notes et référencesQuelles sources sont attendues ?Comment ajouter mes sources ?théorie des probabilitésvariable aléatoire réelleespace probabiliséloi des grands nombreslimite presque-sûrelongue trainedistribution de Cauchyloi de probabilitévariancethéorie des jeuxthéorie du signalstatistique inférentielleestimateurbiaisChristian HuygensXVIIe siècleBlaise Pascalproblème des partisChristian Huygensloi des grands nombresHenri Poincaréroulette françaisedénombrableabsolument convergentesérie harmoniquedensité de probabilitévariable aléatoireespace probabilisécentre de massevariable aléatoireespace mesurablevariable aléatoire réellethéorème de transfertfonction caractéristique d'une variable aléatoiresérie de Taylorthéorème de Fubiniintégration par partiesinégalité de Jensenfonctions convexesestimateurmoyenne empiriqueloi géométriqueDaniel Bernoulli1738prime de risqueutilitéÉmile Borel
Espérance mathématique
Sauter à la navigation
Sauter à la recherche
Pour les articles homonymes, voir Espérance.
En théorie des probabilités, l'espérance mathématique d'une variable aléatoire réelle est, intuitivement, la valeur que l'on s'attend à trouver, en moyenne, si l'on répète un grand nombre de fois la même expérience aléatoire. Elle se note E(X)displaystyle mathbb E (X) et se lit « espérance de X ».
Elle correspond à une moyenne pondérée des valeurs que peut prendre cette variable. Dans le cas où celle-ci prend un nombre fini de valeurs, il s'agit d'une moyenne pondérée par les probabilités d'apparition de chaque valeur. Dans le cas où la variable aléatoire possède une densité de probabilité, l'espérance est la moyenne des valeurs pondérées par cette densité. De manière plus théorique, l'espérance d'une variable aléatoire est l'intégrale de cette variable selon la mesure de probabilité de l'espace probabilisé de départ.
La présentation intuitive de l'espérance exposée ci-dessus est la conséquence de la loi des grands nombres : l'espérance, si elle existe, est la limite presque-sûre de la moyenne des résultats au cours de plusieurs expériences, quand leur nombre augmente à l'infini.
Il n'existe pas toujours d'espérance pour une variable aléatoire. En particulier les distributions à longue traine comme la distribution de Cauchy, produisent des intégrales non convergentes et donc des espérances non définies.
L'espérance est une caractéristique importante d'une loi de probabilité : c'est un indicateur de position. Ainsi, une variable aléatoire est dite centrée si son espérance est nulle. Elle forme, avec la variance, indicateur de dispersion, l'ensemble des indicateurs qui sont presque systématiquement donnés quand est présentée une variable aléatoire.
L'espérance joue un rôle important dans un grand nombre de domaines, comme dans la théorie des jeux pour minimiser les risques, en théorie du signal ou en statistique inférentielle où un estimateur est dit sans biais si son espérance est égale à la valeur du paramètre à estimer.
La notion d'espérance est popularisée par Christian Huygens dans son Traité du hasard de 1656 sous le nom de « valeur de la chance ».
Sommaire
1 Motivations
2 Définition
2.1 Variable discrète prenant un nombre fini de valeurs
2.2 Variable discrète prenant un ensemble dénombrable de valeurs
2.3 Variable continue à densité
2.4 Définition générale
2.5 Généralisation : espérance d'une fonction d'une variable aléatoire
2.6 Unités
3 Propriétés
3.1 Propriétés élémentaires
3.2 Cas d'une variable aléatoire réelle positive
3.3 Loi de l'espérance itérée
3.4 Espérance d'une fonctionnelle
3.5 Estimation
3.6 Caractère central
4 Interprétation et applications
4.1 Espérance mathématique et choix rationnel
4.2 Incidence de la prime de risque
4.3 Applications particulières (économie, assurance, finance, jeux)
4.4 Notion d'utilité probabiliste
5 Notes et références
6 Annexes
6.1 Articles connexes
6.2 Liens externes
Motivations |
La notion d'espérance prend forme au XVIIe siècle en théorie des jeux[réf. nécessaire]. Il s'agit de savoir quelle somme on peut espérer gagner dans un jeu de hasard. Ainsi Blaise Pascal, dans son problème des partis, cherche à savoir comment répartir les mises quand le jeu s'interrompt en cours de partie[1] . Il imagine ainsi un jeu de pile ou face et un pot commun de 64 pistoles, le premier joueur à voir apparaître trois fois la face qu'il a choisie remporte la mise. Si le jeu s'interrompt à un moment où chacun des deux joueurs a la même chance de gagner, il est équitable de répartir les 64 pistoles à parts égales entre chaque joueur, mais si la partie s'interrompt alors qu'un des joueurs a pris un avantage, la répartition doit se faire autrement. Pascal imagine ainsi que le jeu s'interrompt alors que le lancer de dé est PPF. Il envisage alors ce qu'aurait été le coup suivant :
- si le coup suivant avait été P, le joueur ayant misé sur P aurait tout remporté et gagné 64 pistoles ;
- si le coup suivant avait été F, la partie aurait été équitable et l'interruption du jeu aurait conduit à distribuer 32 pistoles à chaque joueur.
Pour Pascal, le joueur ayant misé sur P doit obtenir 32 pistoles à coup sûr mais a une chance sur deux de gagner 32 pistoles supplémentaires. Il doit donc récupérer 48 pistoles.
Pascal ne parle pas de probabilité ni d'espérance de gain mais son idée intuitive reste d'associer un gain à une chance de l'obtenir[2]. Les 48 pistoles que Pascal propose de donner au joueur ayant misé sur P correspondent de fait à son espérance de gain : si la partie s'arrête au quatrième coup, ce joueur a une chance sur deux de gagner 64 pistoles (si la pièce tombe sur P) et une chance sur deux de gagner seulement 32 pistoles (si la pièce tombe sur F et que le jeu s'interrompt). Son espérance de gain est alors de
S=64×12+32×12displaystyle S=64times frac 12+32times frac 12
(on multiplie chaque gain par la probabilité de l'obtenir puis on fait la somme de tous ces produits).
Christian Huygens, quant à lui, dans son Du calcul dans les jeux de hasard de 1657[3] s’intéresse à la somme à miser pour que le jeu soit équitable. Il établit que, si dans un jeu, on a p chances de gagner la somme a pour q chances de gagner la somme b, il faut miser :
S=ap+bqp+qdisplaystyle S=frac ap+bqp+q
pour que le jeu soit équitable. Il formalise ainsi la notion d'espérance, qu'il nomme la valeur de ma chance et l'étend à d'autres domaines que la théorie des jeux. En particulier, avec son frère, il s'intéresse à l'espérance de vie [4].
L'espérance est fortement liée à l'idée de moyenne. En effet, la notion de hasard empêche de prédire le résultat d'une seule expérience aléatoire mais la loi des grands nombres permet de mieux maitriser le résultat si on exécute un grand nombre d'expériences aléatoires de même type. Ainsi, au cours d'un seul lancer de dé, chaque face a normalement une chance sur 6 d'apparaître et il est difficile de prédire le résultat moyen sur trois lancers de dé. Mais, en renouvelant mille fois ou dix mille fois le lancer, les résultats se répartissent presque équitablement entre les différents nombres de 1 à 6. La moyenne des nombres obtenus au cours de ces nombreux lancers s'approche alors de
m=1⋅16+2⋅16+3⋅16+4⋅16+5⋅16+6⋅16=3,5.displaystyle m=1cdot frac 16+2cdot frac 16+3cdot frac 16+4cdot frac 16+5cdot frac 16+6cdot frac 16=3,5.qui correspond à l'espérance de cette expérience de lancer de dé. L'espérance sert donc à prévoir la valeur moyenne obtenue pour la variable que l'on mesure si l'expérience est renouvelée un très grand nombre de fois. Elle sert donc, en théorie des jeux, à l'organisateur qui peut ainsi prévoir la somme moyenne qu'il remporte pour chaque joueur, mais aussi dans le domaine des assurances pour déterminer le coût moyen d'une assurance permettant de couvrir les frais dus aux accidents.
L'espérance et la loi des grands nombres permettent aussi d'invalider une loi de probabilité. On raconte qu'Henri Poincaré s'en serait servi, avec d'autres indices, pour mettre en évidence la malhonnêteté de son boulanger[5]. En effet, le poids d'un pain est soumis à des fluctuations aléatoires mais son espérance est fixée par la loi. Le poids d'un pain annoncé à 1 kg, par exemple, peut fluctuer autour de cette valeur. Poincaré aurait pesé sur une grande période le pain acheté chez son boulanger et aurait trouvé que son poids moyen était largement inférieur à 1 kg. Cette moyenne était trop loin de l'espérance et indiquait une malversation du commerçant.
Définition |
Variable discrète prenant un nombre fini de valeurs |
Si la variable X prend les valeurs x1, x2, ... , xn avec les probabilités p1, p2, ... , pn, l'espérance de X est définie comme :
E[X]=x1p1+x2p2+⋯+xnpn.displaystyle mathbb E [X]=x_1p_1+x_2p_2+dotsb +x_np_n;.
Comme la somme des probabilités est égale à 1, l'espérance peut être considérée comme la moyenne des xi pondérée par les pi
E[X]=x1p1+x2p2+⋯+xnpnp1+p2+⋯+pn.displaystyle mathbb E [X]=frac x_1p_1+x_2p_2+dotsb +x_np_np_1+p_2+dotsb +p_n;.
Exemple : Le jeu de la roulette française consiste à lancer une petite bille sur une roulette contenant 37 cases. Un joueur mise une certaine somme M sur une des cases. Si la bille s'arrête dans sa case, on lui rembourse 36 fois sa mise (son gain est alors de 35M =36M - M) , sinon il perd sa mise (son gain est alors de -M = 0 - M). Son espérance de gain est alors de :
E[GainM]=−M⋅3637 +35M⋅137≈−0,027M.displaystyle mathbb E [,textGain_M]=-Mcdot frac 3637 +35Mcdot frac 137approx -0,027M.
Ce résultat signifie qu'en moyenne, le joueur perd 2,7 % de sa mise à chaque jeu et inversement que le casino gagne en moyenne 2,7 % de la mise de chaque joueur. Le nombre de joueurs dans un casino est suffisamment important pour que cette espérance corresponde effectivement au gain moyen par joueur pour le casino.
En théorie des jeux, une espérance nulle correspond à un jeu équitable.
Variable discrète prenant un ensemble dénombrable de valeurs |
Si la variable X prend une infinité dénombrable de valeurs x1, x2, ..., avec les probabilités p1, p2, ..., l'espérance de X est définie comme
E[X]=∑i=1∞xipi,displaystyle mathbb E [X]=sum _i=1^infty x_i,p_i,
à condition que cette somme soit absolument convergente. Ainsi la série qui prendrait les valeurs 1, -2, 3, -4, ... avec les probabilités c12, c22, c32, c42, ..., où c = 6⁄π2 est choisi de telle sorte que la somme des probabilités donne 1, donnerait pour somme infinie :
∑i=1∞xipi=c(1−12+13−14+⋯).displaystyle sum _i=1^infty x_i,p_i=c,left(1-frac 12+frac 13-frac 14+dotsb right).
Cette somme converge vers ln(2) ≃ 0,69315. Cependant il serait incorrect d'en conclure que l'espérance de X serait égal à ce nombre — En fait, l'espérance de X n'existe pas car la série n'est pas absolument convergente (voir série harmonique).
Variable continue à densité |
Si la variable aléatoire réelle X admet une densité de probabilité f, son espérance est définie comme :
E[X]=∫−∞∞xf(x)dx,displaystyle mathbb E [X]=int _-infty ^infty xf(x),mathrm d x,
à condition que l'intégrale soit absolument convergente.
Définition générale |
La définition permet de retrouver toutes les définitions précédentes. Soit X une variable aléatoire de l'espace probabilisé (Ω,E,P)displaystyle (Omega ,,mathcal E,,mathbb P ), vers (R,B(R)),displaystyle (mathbb R ,,mathcal B(mathbb R )),. Si X est intégrable selon la mesure Pdisplaystyle mathbb P , l'espérance de X est définie par :
E(X)=∫ΩX(ω)dP(ω)=∫RxdPX(x).displaystyle mathbb E (X)=int _Omega X(omega )mathrm d mathbb P (omega )=int _mathbb R xmathrm d mathbb P _X(x).
Il s’agit donc du centre de masse du support de X muni de la mesure de probabilité associée.
Généralisation : espérance d'une fonction d'une variable aléatoire |
X étant une variable aléatoire non nécessairement réelle, donc à valeur dans un espace mesurable (F,F)displaystyle (F,,mathcal F) général, une fonction φ mesurable de (F,F)displaystyle (F,,mathcal F) dans (R,B(R))displaystyle (mathbb R ,,mathcal B(mathbb R )) définit une nouvelle variable aléatoire réelle φ∘Xdisplaystyle varphi circ X notée φ(x) dont l'espérance, lorsqu'elle existe, s'écrit en remplaçant x par φ(x) dans les formules précédentes (théorème de transfert).
Son espérance est définie par :
E(φ(X))=∫Ωφ(X(ω))dP(ω)=∫Fφ(x)dPX(x).displaystyle mathbb E left(varphi (X)right)=int _Omega varphi left(X(omega )right)mathrm d mathbb P (omega )=int _Fvarphi (x)mathrm d mathbb P _X(x).
- Si X est une variable aléatoire absolument continue, de densité de probabilité fX par rapport à une mesure σ-finie μ sur (F,F)displaystyle (F,,mathcal F), alors :
E(φ(X))=∫Fφ(x)fX(x)dμ(x).displaystyle mathbb E left(varphi (X)right)=int _Fvarphi (x)f_X(x)mathrm d mu (x).
- Si X est une variable aléatoire discrète à valeurs dans un ensemble dénombrable S⊂Fdisplaystyle Ssubset F, alors :
E(φ(X))=∑x∈Sφ(x)PX(x).displaystyle mathbb E left(varphi (X)right)=sum _xin Svarphi (x)mathbb P _X(x).
C'est notamment le cas quand S est fini. En notant ses valeurs x1, ..., xn et p1, ..., pn les probabilités correspondantes, l'espérance devient :
E(φ(X))=∑i=1nφ(xi)pi.displaystyle mathbb E left(varphi (X)right)=sum _i=1^nvarphi (x_i)p_i.
En particulier, il est intéressant de considérer la variable aléatoire à valeurs complexes φ(X) = eiθX (où θ est un réel) dont l'espérance mathématique est la transformée de Fourier inverse de fX (dans le cas où F=Rdisplaystyle F=mathbb R ) :
ϕX(θ)=E(eiθX).displaystyle phi _X(theta )=mathbb E left(e^itheta Xright).
Il s'agit de la fonction caractéristique d'une variable aléatoire. L'exponentielle se développe en série de Taylor :
ϕX(θ)=E(∑k=0∞(iθX)kk!)=∑k=0∞(iθ)kk!E(Xk).displaystyle phi _X(theta )=mathbb E left(sum _k=0^infty frac (itheta X)^kk!right)=sum _k=0^infty frac (itheta )^kk!mathbb E left(X^kright).
Unités |
Si les probabilités sont toujours sans dimensions, les espérances peuvent s'exprimer avec les mêmes unités physiques (mètres, kilogrammes, secondes, ampères), monétaires (euros) ou abstraites (points, jetons, buts) que les variables aléatoires (E[X]displaystyle mathbb E [X] étant une moyenne pondérée de Xdisplaystyle X).
Propriétés |
Propriétés élémentaires |
- L'espérance d'une variable aléatoire constante est égale à cette constante ; par exemple, si bdisplaystyle b est une constante, alors E(b)=bdisplaystyle mathbb E (b)=b.
Monotonie : si Xdisplaystyle X et Ydisplaystyle Y sont des variables aléatoires telles que X≤Ydisplaystyle Xleq Y presque sûrement, alors E(X)≤E(Y)displaystyle mathbb E (X)leq mathbb E (Y).
Linéarité : l'espérance est un opérateur linéaire. Pour deux variables aléatoires quelconques Xdisplaystyle X et Ydisplaystyle Y (qui doivent être définies sur le même espace probabilisé) et pour deux nombres réels adisplaystyle a et bdisplaystyle b :
E(aX+bY)=aE(X)+bE(Y)displaystyle mathbb E (aX+bY)=amathbb E (X)+bmathbb E (Y)
Produit : en général, l'opérateur espérance ne respecte pas le produit, c'est-à-dire qu'en général E(XY)≠E(X)E(Y)displaystyle mathbb E (XY)neq mathbb E (X)mathbb E (Y). L'égalité est vraie pour des variables Xdisplaystyle X et Ydisplaystyle Y indépendantes. L'absence de la multiplicativité amène à étudier les covariances et corrélation.
Cas d'une variable aléatoire réelle positive |
Si X est une variable aléatoire positive ou nulle, alors
E(X)=∫0+∞P(X≥x)dx=∫0+∞P(X>x)dxdisplaystyle mathbb E (X)=int _0^+infty mathbb P (Xgeq x),mathrm d x=int _0^+infty mathbb P (X>x),mathrm d x.
Plus généralement, si φdisplaystyle varphi est positive, continument dérivable, croissante sur R+displaystyle mathbb R _+, et si φ(0)=0displaystyle varphi (0)=0, on a
E[φ(X)]=∫0+∞φ′(x)P(X≥x)dx=∫0+∞φ′(x)P(X>x)dxdisplaystyle mathbb E [varphi (X)]=int _0^+infty varphi ^prime left(xright)mathbb P (Xgeq x),mathrm d x=int _0^+infty varphi ^prime left(xright)mathbb P (X>x),mathrm d x.
Un cas particulier important est celui des moments de X : pour α>0displaystyle alpha >0,
E[Xα]=∫0+∞αxα−1P(X≥x)dxdisplaystyle mathbb E [X^alpha ]=int _0^+infty alpha x^alpha -1mathbb P (Xgeq x),mathrm d x,
la première égalité étant l'instance α=1displaystyle alpha =1 de l'égalité précédente. Dans le cas d'une variable aléatoire à valeurs entières, ces formules se réécrivent, après un petit calcul intermédiaire, respectivement :
E[X]=∑k≥1P(X≥k)etE[Xα]=∑k≥1(kα−(k−1)α)P(X≥k)displaystyle mathbb E [X]=sum _kgeq 1mathbb P (Xgeq k)quad textrm etquad mathbb E [X^alpha ]=sum _kgeq 1left(k^alpha -(k-1)^alpha right)mathbb P (Xgeq k).
Loi de l'espérance itérée |
Pour une variable aléatoire discrète : Pour deux variables aléatoires X,Ydisplaystyle X,Y, on peut définir l'espérance conditionnelle
Définition — E(X|Y)(y)≡E(X|Y=y)≡∑xx⋅P(X=x|Y=y).Y)(y)equiv mathbb E (X
qui signifie que E(X|Y)(y)displaystyle mathbb E (X est une fonction de y (en fait une variable aléatoire). L'espérance itérée vérifie
Propriété — E(E(X|Y))=E(X)Y)right)=mathbb E (X)
Pour une variable continue : dans le cas continu, les résultats sont analogues. Dans ce cas-ci, on utilise la densité de probabilité et les intégrales à la place de la distribution et des sommes. En tout cas, le résultat reste valable:
E(X)=E(E(X|Y)).Y)right).
Espérance d'une fonctionnelle |
En général, l'opérateur espérance ne respecte pas les fonctions de variable aléatoire, c'est-à-dire qu'en général :
E(g(X))=∫Ωg(X)dP≠g(E(X)).displaystyle mathbb E (g(X))=int _Omega g(X),mathrm d mathbb P neq g(mathbb E (X)).
Une inégalité célèbre à ce propos est l'inégalité de Jensen pour des fonctions convexes (ou concaves).
Estimation |
On utilise souvent comme estimateur de l'espérance la moyenne empirique, qui est un estimateur:
- Sans biais
Convergent selon la loi des grands nombres et même fortement convergent selon la loi forte des grands nombres- Distribué normalement asymptotiquement selon le théorème central limite
Caractère central |
On considère fréquemment l'espérance comme le centre de la variable aléatoire, c'est-à-dire la valeur autour de laquelle se dispersent les autres valeurs.
En particulier, si X et 2a - X ont même loi de probabilité, c'est-à-dire si la loi de probabilité est symétrique par rapport à a, et si X admet une espérance, alors E(X) = a.
Mais ce point de vue n'est plus valable lorsque la loi est dissymétrique. Pour s'en persuader il suffit d'étudier le cas d'une loi géométrique, une loi particulièrement dissymétrique. Si X représente le nombre de lancers nécessaires pour obtenir le chiffre 1 avec un dé cubique, on démontre que E(X) = 6 ce qui veut dire qu'il faut en moyenne 6 lancers pour obtenir le chiffre 1. Pourtant, la probabilité que 5 essais ou moins suffisent vaut près de 0,6 et la probabilité que 7 lancers ou plus soient nécessaires est de 0,33. Les valeurs de X ne se répartissent donc pas équitablement de part et d'autre de l'espérance.
Interprétation et applications |
Espérance mathématique et choix rationnel |
Dans certains cas, les indications de l'espérance mathématique ne coïncident pas avec un choix rationnel. Imaginons par exemple qu'on vous fasse la proposition suivante : si vous arrivez à faire un double six avec deux dés, vous gagnez un million d'euros, sinon vous perdez 10 000 euros. Il est probable que vous refuserez de jouer. Pourtant l'espérance de ce jeu vous est très favorable : la probabilité de tirer un double 6 est de 1/36 ; on obtient donc :
100000036−10000×3536=18055displaystyle frac 1,000,00036-frac 10,000times 3536=18,055
à chaque partie vous gagnez en moyenne 18 000 euros.
Le problème tient justement sur ce « en moyenne » : si les gains sont extrêmement importants, ils n'interviennent que relativement rarement, et pour avoir une garantie raisonnable de ne pas finir ruiné, il faut donc avoir suffisamment d'argent pour participer à un grand nombre de parties. Si les mises sont trop importantes pour permettre un grand nombre de parties, le critère de l'espérance mathématique n'est donc pas approprié.
Incidence de la prime de risque |
Ce sont ces considérations et de risque de ruine qui conduisirent, à partir de son « paradoxe de Saint Petersbourg », le mathématicien Daniel Bernoulli à introduire en 1738 l'idée d'aversion au risque qui conduit à assortir l'espérance mathématique d'une prime de risque pour son application dans les questions de choix.
Applications particulières (économie, assurance, finance, jeux) |
- La notion de prime de risque appliquée à l'espérance mathématique fut en économie à l'origine du concept d'utilité (et d'utilité dite « marginale »).
- les primes d'assurance sont d'un coût supérieur à l'espérance mathématique de perte du souscripteur du contrat. Mais c'est ce risque de forte perte en cas d'évènement rare qui l'incite à le souscrire.
- L'espérance mathématique, comme d'autres concepts probabilistes, est utilisée dans les calculs d'évaluation en finance, par exemple pour l'évaluation d'entreprise.
- La finance comportementale aborde, entre autres, les aspects émotionnels et cognitifs, qui vont au-delà de la simple prime de risque, et qui peuvent interférer avec le concept rationnel d'espérance mathématique à l'heure du choix.
- De même que l'on paye une prime pour éviter le risque avec les assurances, on paie au contraire un accès au risque dans les jeux de hasard (qui rapportent toujours moins que leur espérance mathématique, puisqu'ils doivent s'autofinancer).
Notion d'utilité probabiliste |
Plutôt que de passer par une notion de prime, on peut directement établir une fonction d'utilité, associant à tout couple gain, probabilité une valeur. L'espérance mathématique constitue alors la plus simple des fonctions d'utilité, appropriée dans le cas d'un joueur neutre au risque disposant de ressources au moins très grandes à défaut d'infinies.
Émile Borel adopta cette notion d'utilité pour expliquer qu'un joueur ayant peu de ressources choisisse rationnellement de prendre un billet de loterie chaque semaine : la perte correspondante n'est en effet pour lui que quantitative, tandis que le gain – si gain il y a – sera qualitatif, sa vie entière en étant changée. Une chance sur un million de gagner un million peut donc valoir dans ce cas précis bien davantage qu'un euro.
Notes et références |
Lettre de Pascal à Fermat du 29 juillet 1654, citée et analysée dans Pascal, Fermat et la géométrie du hasard [PDF], Nicolas Trotignon, 1er juin 1998, « La méthode pas à pas », pp. 5-6.
Nicolas Trotignon, Pascal, Fermat et la géométrie du hasard [PDF], 1er juin 1998, p. 17.
Christiaan Huygens, Œuvres complètes. Tome XIV. Probabilités. Travaux de mathématiques pures, 1655-1666 (ed. D.J. Korteweg). Martinus Nijhoff, Den Haag 1920, Van rekeningh in spelen van geluck/Du calcul dans les jeux de hasard, 1656-1657.
Jean-Marc Rohrbasser et Jacques Véron, « Les frères Huygens et le «calcul des aages» : l'argument du pari équitable », Population, vol. 54, no 6, 199, p. 993-1011 (lire en ligne, consulté le 28 août 2014).
Alex Bellos, Alex au pays des chiffres, p. 389.
Annexes |
Articles connexes |
- Inégalité de Bienaymé-Tchebychev
- Moment
- Formule de Wald
- Quasi-certitude
Liens externes |
Probabilités adaptées à la finance : article sur l'espérance et exemple simple, sur le site gestion-des-risques-conseil.fr
- Portail des probabilités et de la statistique
- Portail de la finance
Catégories :
- Probabilités
- Mathématiques financières
(RLQ=window.RLQ||[]).push(function()mw.config.set("wgPageParseReport":"limitreport":"cputime":"0.504","walltime":"0.736","ppvisitednodes":"value":3849,"limit":1000000,"ppgeneratednodes":"value":0,"limit":1500000,"postexpandincludesize":"value":192896,"limit":2097152,"templateargumentsize":"value":81072,"limit":2097152,"expansiondepth":"value":18,"limit":40,"expensivefunctioncount":"value":1,"limit":500,"unstrip-depth":"value":0,"limit":20,"unstrip-size":"value":8569,"limit":5000000,"entityaccesscount":"value":1,"limit":400,"timingprofile":["100.00% 471.809 1 -total"," 19.16% 90.376 1 Modèle:Palette"," 17.63% 83.162 1 Modèle:Portail"," 17.16% 80.950 1 Modèle:Palette_Probabilités_et_statistiques"," 16.30% 76.904 1 Modèle:Méta_palette_de_navigation"," 14.86% 70.095 1 Modèle:Références"," 12.86% 60.677 3 Modèle:Méta_palette_de_navigation_sous-liste"," 10.99% 51.843 1 Modèle:Article"," 10.06% 47.464 5 Modèle:Méta_palette_de_navigation_sous-groupe"," 9.59% 45.254 1 Modèle:Sources"],"scribunto":"limitreport-timeusage":"value":"0.107","limit":"10.000","limitreport-memusage":"value":4078066,"limit":52428800,"cachereport":"origin":"mw1262","timestamp":"20190719100632","ttl":2592000,"transientcontent":false););"@context":"https://schema.org","@type":"Article","name":"Espu00e9rance mathu00e9matique","url":"https://fr.wikipedia.org/wiki/Esp%C3%A9rance_math%C3%A9matique","sameAs":"http://www.wikidata.org/entity/Q200125","mainEntity":"http://www.wikidata.org/entity/Q200125","author":"@type":"Organization","name":"Contributeurs aux projets de Wikimu00e9dia","publisher":"@type":"Organization","name":"Wikimedia Foundation, Inc.","logo":"@type":"ImageObject","url":"https://www.wikimedia.org/static/images/wmf-hor-googpub.png","datePublished":"2004-06-18T07:55:33Z","dateModified":"2019-07-19T09:11:52Z","headline":"Moyenne des valeurs prises par une variable alu00e9atoire, pondu00e9ru00e9es par leurs probabilitu00e9s"(RLQ=window.RLQ||[]).push(function()mw.config.set("wgBackendResponseTime":170,"wgHostname":"mw1266"););