E(X)&=p\sum_{i=1}^{+\infty}qp^{i-1}+q\sum_{i=1}^{+\infty}pq^{i-1}\\ Écrire un algorithme qui simule la variable aléatoire $Y$. $Y$ peut désormais prendre ses valeurs dans $\mathbb N$. La variable aléatoire X est à valeurs x 1,x 2, …, x n on dit que X est une variable aléatoire discrète. $$P(G_2)=\frac{1-p}{2-p}.$$ On note $X$ la variable aléatoire égale au nombre de faces obtenues avant le $r$-ième pile. $Y$ est le temps d'attente de la première réalisation de l'événement \newcommand{\mcmn}{\mathcal{M}}\newcommand{\mcmnr}{\mathcal{M}_n(\mtr)} Alors $X$ suit une loi géométrique de paramètre $p$, et donc $P(X<+\infty)=1$. \end{eqnarray*} Corrigé. La probabilité que le second tirage donne une boule blanche sachant que le premier donne une boule rouge est 3/5 également. En particulier, on a : $$P(T=n)=P(S_{n-1}=5)P(X_n=1)=\binom{n-1}5\left(\frac 1{20}\right)^6\left(\frac{19}{20}\right)^{n-6}.$$ $$Y(\omega)=\sum_{i=0}^{T(\omega)}X_i(\omega).$$, Exercices de dénombrement - probabilités - statistiques, Charles-Jean de La Vallée Poussin (1866 - 1962). \end{align*} Dans ce dernier cas, on peut oublier les $n$ premières épreuves dont on connait le résultat et calculer la probabilité que le premier résultat arrive après $m$ épreuves. \newcommand{\croouv}{[\![}\newcommand{\crofer}{]\!]} On procède à l'expérience suivante : si $X$ prend la valeur $n$, on place $n+1$ boules numérotées de 0 à $n$ dans une urne, et on tire ensuite une boule de cette urne. On a $P\left( D|A\right) =0.1$ et $P\left( D|B\right) =0.2$ et comme $\left( \end{align*}. On garde les mêmes notations. En déduire que $P(X\geq 2n)\leq 1-\frac 1n$. On tire, simultanément et au hasard, cinq cartes de l'enveloppe. Soit $r\geq 1$. $$E(X)=\sum_{k=0}^{+\infty}P(X>k).$$, On a $X\leq k$ si et seulement si les $n$ épreuves ont amené un résultat inférieur ou égal à $k$, et on a donc : Pour une chaine donnée, les fabrications des pièces sont On note $Y$ la variable aléatoire correspondant au rang du tirage d'une boule blanche. $P_{(Y>n)}(Y>n+m)$ est la probabilité pour que, dans le même cas, le premier succès arrive après la $n+m$-ième épreuve, sachant que les $n$ premières épreuves ont donné lieu à un échec. En sommant pour $(i_1,\dots,i_{n-1})$ parcourant $(\mtn^*)^{n-1}$, on a : $$P(X_i=1)=\frac 12\times\frac{1}{10}=\frac 1{20}$$ Si $p=q=1/2$, on obtient Une grande enveloppe contient les douze "figures" d'un jeu de carte : les quatre rois, les quatre dames et les quatre valets. \begin{eqnarray*} Il dispose de $n\geq 2$ clés dont une seule ouvre la porte de son domicile, mais il ne sait plus laquelle. $$E(Y)=\frac{1}{p}-1=\frac{1-p}{p}.$$ Quelle est la loi de $T$? Les variables $X_n$ sont des variables aléatoires de Bernoulli indépendantes de même paramètre $p$. &=k+1+(1-p)\sum_{j=0}^k (k-j)(1-p)^j\\ On peut proposer deux raisonnement très différents pour cette question. \begin{eqnarray*} e^{\lambda-\lambda p}\\ \end{align*} Montrer que $X$ admet une espérance, et la calculer. Une variable continue peut être numérique ou il peut s'agir de données de date/d'heure. S_2-S_1&=\sum_{n=d+1}^{+\infty}(n-d)P(X=n)-\sum_{n=s}^d (d-n)P(X=n)\\ Reconnaitre le schéma d'une loi classique. \begin{array}{ll} $$P(E_i|E_1\cap E_2\cap\dots \cap E_{i-1})=\frac{n-i}{n+1-i}\textrm{ et }P(S_i|E_1\cap E_2\cap\dots\cap E_{i-1})=\frac{1}{n+1-i}.$$. On en déduit que : \end{eqnarray*} Démontrons cette propriété par récurrence. Son espérance (le nombre moyen d'essais pour ouvrir la porte) vaut donc UniversitéPierreetMarieCurie 2013-2014 Probabilitésetstatistiques-LM345 Mercredi6novembre2013 Contrôle continu. La somme de variables indépendantes suivant une loi de Poisson suit une loi de Poisson de paramètre la somme des paramètres. p. 3 Exercice 10 Esp erance. $$P(Z=k|X=n)=\binom nk p^k(1-p)^{n-k}$$ Or, $S_j$, comme somme finie de variables aléatoires admettant une espérance, admet une espérance, et donc $\sum_{l=0}^N l P(S_j=l)\leq E(|S_j|)$. Soient $X_1$ et $X_2$ deux variables aléatoires indépendantes qui suivent une loi géométrique de paramètre $p\in ]0,1[$. \end{align*} Effectuer un changement d'indice $j=i-1$. Montrons ensuite par récurrence sur $k$ que $p_k=p(1-p)^{k-1}$. $$S_1=\sum_{n=s}^d (d-n)P(X=n),\ S_2=\sum_{n=d+1}^{+\infty}(n-d)P(X=n).$$, Soit la suite $(u_k)$ définie pour $k\geq 0$ par On a cette fois $P(A_i|A_{i-1})=\frac {n-1}n$ Ainsi, Déterminer, pour $2\leq i\leq n$, les probabilités conditionnelles P(Y=k)&=&\sum_{n=0}^{\infty}P(Y=k|X=n)P(X=n)\\ Soit $X_0,\dots,X_k$ des variables aléatoires sur l'univers $\Omega$ à valeurs dans $\mathbb Z$. \] Quelle est la probabilité qu'au moins un des 10 hôpitaux soit saturé un jour donné? En particulier, on a P(Z=k)&=&\sum_{l=0}^k P(X=l)P(Y=k-l)\\ }{k!\left( $Y$ prend ses valeurs dans $\left\{\frac{1}{1+k};\ k\geq 0\right\}$ et on a En 2020, le standard a reçu une succession d'appels. $$E(U)=4.$$. \begin{align*} Si $\lambda-1<0$, c'est-à-dire $\lambda\in ]0,1[$, la suite $(P(X=k))$ est strictement décroissante, et donc son maximum est atteint en $P(X=0)$. Quelle est la loi de $T_1$? On remarque d'abord que $X$ prend la valeur $1$ avec la probabilité $2/5$. On lance une pièce de monnaie dont la probabilité de tomber sur pile vaut $p$. Calculer l'espérance d'une loi de Poisson de paramètre $\lambda$; sa variance. $$E(X)=n.$$ On en déduit que Calculer la probabilité des événements $(X=1)$ et $(X=2)$. Si $Y$ suit une loi géométrique de paramètre $p$, on a pour tout $n\geq 0$ Les $Y_i$ suivent des lois géométriques de paramètre $p$ et sont indépendantes. $$\sum_{k\geq 0}P(Y=k)=1.$$ }e^{-\lambda}\\ }\left(\frac 1{20}\right)^6\sum_{n\geq 6}n(n-1)\dots (n-5)\left(\frac{19}{20}\right)^{n-6}\\ Si $X=0$, la partie est nulle. On a ensuite $X=2$ si le premier tirage a amené une boule rouge et le second une boule blanche. Mais c est absolument pas ça la définition d une fonction discrète ou continue. $$0\leq nP(X>n)=n\sum_{k=n+1}^{\infty}P(X=k)\leq\sum_{k=n+1}^\infty kP(X=k).$$ La partie s'arrête alors, le joueur qui a amené un 6 a gagné. et donc que la propriété "être sans mémoire" se réécrit : Il faut aussi triturer la somme un petit peu (ne sommer que sur les termes non nuls, puis faire un changement d'indices pour retrouver la fonction exponentielle...). $S_n$ représente le nombre de points perdus après $n$ jours. $X$ est le nombre de réalisations de l'événement "le lancer donne pile" de probabilité constante 0,3 au cours de 10 lancers indépendants. En particulier, Une variable al atoire X de Bernoulli est une variable qui ne pr end que deux valeu rs :lÕ chec (au quel on asso cie la valeur 0) et le succ s (auquel on asso cie la valeur 1) dÕune exp rience. Donner la loi de $Z$ et vérifier que $Z$ et $Y$ sont indépendantes. Un algorithme possible est : On considère une urne contenant $n$ boules noires et $b$ boules blanches, avec $(n,b)\in\mathbb N^2$. $$P(A_n=i_n)=q^{i_n-1}p.$$ De la même façon, on trouve pour $Y$ &=&\frac{e^{-(\lambda+\mu)}}{n! série convergente dont on calcule la somme partielle en distinguant p_{k+1}&=&p\sum_{j\geq k+1}p_j=p\left(1-\sum_{j=1}^{k}p(1-p)^{j-1}\right)\\ \begin{eqnarray*} Par définition, une variable à densité est une variable aléatoire telle qu’il existe une densité telle que pour tout . X(!) Pour quelle(s) valeur(s) de $k\in\mathbb N$ la probabilité $P(X=k)$ est maximale? Utiliser que $([T=j])_{j=0,\dots,k}$ est un système complet d'événements, et introduire les variables aléatoires $S_j=\sum_{i=0}^j X_i$. On répète un certain nombre de fois le protocole suivant : on tire au hasard une boule dans l'urne. donc la loi géométrique $\mathcal{G}(1/4)$, c'est-à-dire que, pour $k\geq 1$, Par la formule des probabilités totales : Une variable aléatoire continue peut prendre toutes les valeurs d un intervalle. Montrer que $A_1,\dots,A_n$ sont des variables aléatoires indépendantes qui suivent une même loi. On reconnait bien la fonction génératrice d'une loi de Poisson de paramètre $\lambda+\mu$. Reconnaitre une loi binomiale, et en déduire le calcul de probabilités. u_{k+1}&=\sum_{i=0}^{k+1} (k+1-i)(1-p)^i\\ $$P(B)=\sum_{k\in\mathbb N}P(X=3k+2)=\sum_{k\in\mathbb N}pq^{3k+1}=\frac{pq}{1-q^3}=\frac{q}{1+q+q^2},$$ Un jour sur deux, il dépasse la vitesse autorisée. &=k+1+\sum_{i=1}^{k+1}(k+1-i)(1-p)^i\\ On en déduit que m! $$u_k=\sum_{i=0}^k (k-i)(1-p)^i.$$ On peut utiliser des résultats classiques sur les séries, comme le critère de d'Alembert. On remarque que $P(A)+P(B)+P(C)=1$, ce qui signifie que presque sûrement, un des trois joueurs gagne (ou encore que presque sûrement, la partie ne dure pas indéfiniment). Comme la fonction génératrice caractérise la loi d'une variable aléatoire, $Z$ suit bien une loi de Poisson de paramètre $\lambda+\mu$. de paramètres $n$ et $0.1$. Quelle est la probabilité que $A$ soit diagonalisable? En moyenne, si on répète un grand nombre de fois l'expérience aléatoire, il faudra 15/4 lancers (non entier!) On suppose désormais, et jusqu'à la fin de l'exercice, qu'on répète les tirages jusqu'à obtention d'une boule blanche. \begin{align*} En effet, si le premier lancer n'amène pas un six, alors tout se passe comme si on commençait une nouvelle partie mais avec le deuxième joueur qui tire en premier. Si $p\neq q$, alors Déterminer les lois marginales de X et de Y. Utiliser la définition de l’indépendance pour étudier (c) Déterminer la loi de la variable aléatoire Z = XY, son espérance et sa variance. \end{align*}, En utilisant le résultat de la première question, on a Le nombre d'oeufs pondus est une variable aléatoire $X$ suivant une loi de Poisson $\mathcal P(\lambda)$. Un jour sur dix, un contrôle radar est effectué. Le On suppose qu'il existe $p\in ]0,1[$ tel que, pour tout $n\in\mathbb N^*$, $P(X=n)=pP(X\geq n)$. Mais on a aussi $G_1\cup G_2=(X<+\infty)$. On suppose qu'on dispose d'un espace probabilisé $(\Omega,P)$ permettant d'étudier cette expérience. La famille $(Y=j)_{j\geq 1}$ forme un système complet d'événements. \end{align*} $$\frac{P(X=k+1)}{P(X=k)}\geq 1\iff k\leq \lambda-1.$$ &=\frac{p}q+\frac qp. $$P(Y=k)=P(X=k+s-1)=p(1-p)^{k-1}.$$ La probabilité qu'un objet construit par la chaine $A$ soit Démontrer que $P(Y>0)=1$ et qu'il existe $p\in\mathbb ]0,1[$ tel que, pour tout $n\in\mathbb N$, on a $P(Y>n)=(1-p)^n$. Par indépendance de ces événements, on a donc pour $n\geq 6$, Bien sûr, on a $P_A(G_2)=0$ : si le premier lancer amène un 6, le deuxième joueur a perdu. Un jour sur deux, il dépasse la vitesse autorisée. }\\ Les lancers sont supposés indépendants, et on note $X$ la variable aléatoire réelle égale au nombre de lancers nécessaires pour obtenir, pour la première fois, deux piles consécutifs. \end{eqnarray*} E(Y)&=&\sum_{k\geq 0}\frac{1}{1+k}\frac{\lambda^k}{k! Soit $X$ une variable aléatoire suivant une loi de Poisson $\mathcal P(\lambda)$. \begin{align*} }=\sum_{k\geq 1}\frac{k+1-1}{(k+1)! Ainsi, $X$ suit une loi géométrique de paramètre $p$. Par linéarité de l'espérance et de la variance (pour des variables aléatoires indépendantes), on a On en déduit que Utiliser la formule des probabilités totales. Le mode et la médiane sont des outils d'analyse de la dispersion d'une variable. On trouve : $$E(X)=\sum_{k=0}^{+\infty}P(X>k).$$. P(S=k)&=\sum_{i=1}^{k-1}p^{i+1}q^{k-i}+p^{k-i}q^{i+1}\\ }e^{-\lambda}\\ Il atteint sa valeur maximale pour $k=0$, et donc la suite est décroissante si et seulement si $\lambda\leq 1$. $X$ étant à valeurs positives de moyenne $n$, l'inégalité de Markov donne, pour tout $a>0$, $$P\left(Y=\frac 1{1+k}\right)=\frac{\lambda^k}{k! $\sum_{k\geq 1}P(Y=k)$ converge, et on sait même que sa somme est inférieure ou égale à $1$. L'algorithme suivant utilise une fonction ALEA(1,n) qui rend un nombre entier aléatoire obtenu de façon équiprobable dans l'ensemble $\{1,\dots,n\}$. On en déduit que, pour $n\geq 1$ Appliquons la propriété mentionnée au début de la correction avec $n=m=0$. On a donc Fixons un tel événement élémentaire, c'est-à-dire une suite de $r+k$ lancers comprenant $r$ piles, $k$ faces, et se terminant par un pile. &=&\frac{e^{-p\lambda}(\lambda p)^k}{k!}. $$(X=4)=F_1F_2P_3P_4\cup P_1F_2P_3P_4\implies p_4=\left(\frac{1}{3}\right)^2\left(\frac 23\right)^2+\left(\frac 13\right)\left(\frac 23\right)^3=\frac 4{27}.$$. Déterminer la loi de probabilité de $Y$. &=&\sum_{k\geq 0}\frac{\lambda^k}{(k+1)! La variable aléatoire $X$ prend ses valeurs dans $\mathbb N$. Fixons $k\in\mathbb N$. }e^{-a}\\ \end{align*} On distingue alors trois cas : Soit $X$ une variable aléatoire suivant une loi de Poisson de paramètre $\lambda>0$. 1. D_{s+1}-D_s\leq 0 &\iff (1-p)^{d-s}\leq \frac 12\\ &=k+1+(1-p)u_k. &=&\frac{e^{-\lambda}p^k \lambda^k}{k! objets. On note $G_1$ l'évènement ``le joueur 1 gagne'' et $G_2$ l'évènement ``le joueur 2 gagne''. On a donc : Pour tout $n\geq 1$, on note $S_n=\sum_{i=1}^n X_i$. On a $Z=h$ si, et seulement si, il existe $j$ avec $Y=j$ et $X=h+j$. }\sum_{k=0}^n \binom nk \lambda^k \mu^{n-k}\\ &\iff s\leq \alpha. $Y$ prend ses valeurs dans $\mathbb N^*$. P(Z=k,Y=n)&=&P(Y=n)P(Z=k|Y=n)\\ Quelle est la loi de $X$ (on reconnaitra une loi classique)? Définition de variable continue . On note $X_i$ le nombre de points perdus le jour $i$. Quelle est la loi de $X$? En déduire, en utilisant le système complet \end{eqnarray*} $$P(X=k)=P(A_1)P(A_2|A_1)\cdots P(\overline{A_k}|A_1\cap\dots \cap A_{k-1}).$$ $$E(X)=E(Y)+s-1=\frac 1p+s-1\textrm{ et }V(X)=V(Y)=\frac{1-p}{p^2}.$$. Le nombre moyen d'essais est l'espérance de $Y$, qui vaut $\frac{n+1}2$. QSP ESCP 2012 F1 Soit X une variable al´eatoire r´eelle admettant une densit´e f nulle sur ]−∞,0[ et continue sur [0,+∞[.On note F la fonction de r´epartition de X. L'égalité est donc vérifiée au rang $k+1$ et par le principe de récurrence, elle est vérifiée pour tout $k\geq 0$. mais il ne sait plus laquelle. \end{eqnarray*} Critère de d'Alembert, ou $\sum_{k\geq 0}P(Y=k)=1$. Notons $X_n$ la variable aléatoire égale à 1 si la partie numéro $n$ amène pile. n-k\right) !n! On en déduit que Alors il est facile de voir, en étudiant $f$ (par exemple, en la dérivant), que $f(x)\geq 2$ pour tout $x>0$ (le minimum étant atteint en $1$). &=\sum_{j=0}^k P(T=j)\sum_{l\in\mathbb Z}l P(S_j=l)\\ \end{eqnarray*} }(\lambda+\mu)^k Calculer les probabilités $P(Y=k|X=n)$, puis utiliser la formule des probabilités totales. On en déduit : $$u_k=\frac kp-\frac{1-p}{p^2}+\frac{1-p}{p^2}(1-p)^k.$$ Cet événement a pour probabilité $p^iq^jp=p^{i+1}q^j$. \DeclareMathOperator{\comat}{comat}\DeclareMathOperator{\imv}{Im} Par le théorème de transfert, puisque $X$ prend ses valeurs dans $\mathbb N\cap [s,+\infty[$, 1. Soient Xune variable aleatoire r´ ´eelle d efinie sur un´ espace de probabilite (´;A;P) et Fsa fon ion de r´epartition d efinie par´ F(t) = P(X t) pour t2R. Il suffit de savoir sommer les séries du type $\sum kp^k$. On obtient en appliquant l'inégalité de Bienaymé-Tchebychev avec $\veps>0$, On doit prouver la convergence de $\sum_{l\geq 0}lP(Y=l)$ et la convergence de $\sum_{l<0}|l|P(Y=l)$. On note $X$ la variable aléatoire égale au nombre de tirages effectués. }\sum_{n=k}^{+\infty}\frac{(1-p)^{n-k} \lambda^{n-k}}{(n-k)! P[(Z=h),(Y=j)]&=&P(X=h+j,Y=j)=P(Y=j|X=h+j)P(X=h+j)\\ Soit $n\geq 2$. La probabilité que le premier tirage donne une boule rouge est 3/5. \newcommand{\veps}{\varepsilon}\newcommand{\mcu}{\mathcal{U}}