Introduction à la théorie des probabilités discrètes#
En informatique, nous sommes souvent amenés à traiter des probabilités :
Lorsque nous voulons modéliser un phénomène aléatoire ou imprévisible (par exemple le nombre de visiteurs sur site web par heure).
Lorsque nous voulons travailler avec des ensembles de données perturbés par un signal aléatoire (bruit).
En cryptographie, l’aléatoire est essentiel.
Les algorithmes aléatoires peuvent offrir des solutions simples et rapides à des problèmes pour lesquels aucun algorithme déterministe équivalent n’est connu.
Une introduction fréquentiste aux probabilités#
Notre modèle pour un phénomène aléatoire ou imprévisible sera celui d’une expérience aléatoire: il s’agit d’un processus qui produit un résultat aléatoire, appelé une réalisation, chaque fois que nous le répétons.
Un exemple archétypal est celui du coup de dé : chaque fois que nous le lançons, nous obtenons un nouveau résultat. Supposons donc que nous lancions les dés \(N\) fois et que nous comptons le nombre \(m_i\) de fois où nous voyons chaque face \(i\), où \(i \in \{1,2,3,4,5,6\}\). Le rapport \(m_i/N\) est alors la fréquence relative avec laquelle nous avons observé chaque face \(i\). Pour un dé équilibré et un grand nombre d’essais \(N\), nous devrions nous attendre à ce que \(m_i/N \sim 1/6\).
Pour modéliser cette expérience, on définira un nombre appelé probabilité de la réalisation \(m_i\), que nous fixerons à la limite de la fréquence d’observation de \(m_i\), soit \(1/6\).
Warning
L’interprétation ci-dessus des probabilités comme la limite des fréquences relatives est appelée fréquentisme. Ce n’est pas la seule interprétation possible ! En effet, une autre interprétation très populaire est le bayésianisme qui interprète les probabilités comme modélisant la connaissance ou la croyance.
Espaces probabilisés#
Pour modéliser une expérience, nous considérerons l’ensemble \(\Omega\) de tous les résultats possibles, appelé univers. Tout au long de ce chapitre, nous supposerons que l’univers est un ensemble fini (et nous noterons que de nombreuses notions introduites ici ne sont pas directement transposables au cas infini).
Les sous-ensembles de \(\Omega\) sont appelés événements. Pour chaque résultat \(\omega \in \Omega\) l’ensemble \(\{\omega\}\) est un événement, appelé un événement élémentaire.
Par exemple, dans notre expérience de coup de dé, l’événement élémentaire \(\{5\}\) correspond à « obtenir un \(5\) ». Un événement non élémentaire serait par exemple \(\{2,4,6\}\) qui correspond à « obtenir un nombre pair », c’est-à-dire soit \(2,4,\) ou \(6\).
Le vocabulaire suivant est utile pour discuter des événements :
Pour deux événements \(A, B\), l’événement \(A \cup B\) se lit comme \(A\) ou \(B\).
Pour deux événements \(A, B\), l’événement \(A \cap B\) se lit comme \(A\) et \(B\).
Deux événements \(A, B\) sont dits disjoints si \(A \cap B = \emptyset\).
Rappelons maintenant qu’au cours de notre expérience aléatoire, nous avons non seulement recueilli tous les résultats possibles pour former un \(\Omega\), mais nous avons également tenu compte des fréquences relatives.
Par conséquent, la structure simple d’un ensemble sur \(\Omega\) n’est pas suffisante à nos fins : nous devons l’enrichir d’une mesure de probabilité.
Définition (mesure de probabilité).
Une mesure de probabilité sur un univers \(\Omega\) est définie en associant à chaque événement \(e \in \mathcal{P}\left( \Omega \right)\) un nombre réel \(P(e)\) tel que :
\(P\left( \Omega \right) = 1\),
Pour tous les événements \(e \in \mathcal{P}\left( \Omega \right), P(e) \geq 0\).
Pour deux événements disjoints \(A, B\), on a \(P(A \cup B) = P(A) + P(B)\).
Pour les ensembles finis, la définition de \(P(\{\omega\})\) pour tous les événements élémentaires \(\{\omega\}, \omega \in \Omega\) suffit à déterminer complètement une mesure de probabilité (à condition que nos choix conduisent à \(P\left(\Omega\right) = 1\)).
Le couple \((\Omega, P)\) constitué d’un univers \(\Omega\), et d’une mesure de probabilité \(P\) sur \(\Omega\) est appelé un espace probabilisé (ce n’est pas tout à fait vrai, voir la fin du chapitre).
Par exemple, pour modéliser mathématiquement un seul lancement d’un dé équilibré, notre espace de probabilité est composé de :
\(\Omega = \{1,2,3,4,5,6\}\),
Pour tout \(\omega \in \Omega\), \(P(\{\omega\}) = 1/6\).
Une notion importante pour les événements est la suivante :
Définition (événements indépendants).
Etant donné un espace probabilisé \((\Omega, P)\), deux événements \(A, B \subseteq \Omega\) sont dits indépendants si :
Il s’agit d’une formulation abstraite de la notion intuitive selon laquelle deux événements doivent être qualifiés d’indépendants si les occurrences de l’un n’affectent pas les occurrences de l’autre.
Les propriétés suivantes sont utiles pour calculer les probabilités :
Pour tout événement \(A\), \(P(\Omega \setminus A) = 1 - P(A)\).
\(P(\emptyset) = 0\).
Pour deux événements \(A, B\), \(P(A \cup B) = P(A) + P(B) - P(A \cap B)\) - notez que si \(A, B\) sont disjoints, on retrouve \(P(A \cup B) = P(A) + P(B)\).
Pour deux événements \(A, B\) avec \(A \subseteq B\), \(P(A) \leq P(B)\).
Exemples d’espaces probabilisés#
Considérons à nouveau l’univers \(\Omega = \{1,2,3,4,5,6\}\). Le premier exemple de mesure de probabilité que nous avons vu sur \(\Omega\) a été utilisé pour modéliser un seul lancement d’un dé équilibré, en attribuant à chacun des 6 dés une valeur de \(1/6\).
Une généralisation de cette mesure est la suivante.
Definition (Uniform measure).
Étant donné un univers fini \(\Omega\), la mesure de probabilité uniforme est celle qui attribue \(P(\{\omega\}) = \frac{1}{\lvert \Omega \rvert}\) à tous les \(\omega \in \Omega\).
Une propriété importante de cette mesure est la équiprobabilité qui nous dit que que pour tout événement \(A \subseteq \Omega\) :
Bien entendu, tous les dés ne sont pas équilibrés. Une autre attribution possible possible des probabilités est, par exemple, la suivante
\(P({1})\) |
\(P({2})\) |
\(P({3})\) |
\(P({4})\) |
\(P({5})\) |
\(P({6})\) |
---|---|---|---|---|---|
\(1/4\) |
\(1/8\) |
\(1/12\) |
\(1/8\) |
\(1/6\) |
\(2/6\) |
Les probabilités que nous attribuons ne doivent pas nécessairement être des nombres rationnels, tout nombre réel non négatif suffit.
Par exemple, nous pourrions avoir une pièce de monnaie biaisée que nous modélisons avec \(Omega = \{0, 1\}\) et \(P(\{0\}) = \pi, P(\{1\}) = 1 - \pi\).
Jusqu’à présent, nous avons envisagé des expériences consistant à lancer un seul dé ou à tirer à pile ou face.
Et si on jouait à pile ou face \(n\) fois ? Cela équivaut à de jouer \(n\) fois à pile ou face et nous pouvons donc considérer que l’univers \(\Omega\) est constitué de \(n\)-tuples de résultats les résultats du jeu de pile ou face d’une seule pièce.
Par exemple, pour une expérience consistant à lancer une pièce équilibrée deux fois (ou deux pièces équilibrées une fois), nous avons l’univers suivant :
Puisque nous avons supposé que chaque pile ou face est équilibré, ensemble, ils devraient générer une distribution uniforme sur les quatre résultats possibles.
Probabilité conditionnelle#
Supposons que notre expérience consiste à nouveau à lancer un seul dé, mais cette fois-ci, on nous donne l’information supplémentaire nous avons tiré un nombre impair. Il est clair que la mesure uniforme \(P\) sur \(\Omega\) n’est plus appropriée pour modéliser cette situation : par exemple, nous savons que nous ne pouvons pas avoir obtenu \(2\) puisque ce n’est pas un nombre impair et pourtant \(P(\{2\}) = 1/6\). Comment devrions-nous mettre à jour la mesure \(P\) sur \(\Omega = \{1,2,3,4,5,6\}\) pour tenir compte de cette information supplémentaire ?
Nous savons que selon cette nouvelle mesure, que nous appellerons \(P'\), la probabilité de \({1,3,5}\) doit être de 1 puisque nous savons que nous avons obtenu un nombre impair. En termes mathématiques, \(P'(\{1,3,5\}) = 1.\) De même, les résultats pairs ne sont plus possibles, donc \(P'(\{2\}) = P'(\{4\}) = P'(\{6\}) = 0\). Mais que dire de \(P'(\{1\})\), \(P'(\{3\})\), \(P'(\{5\})\) ?
Le fait de savoir que le nombre obtenu est impair ne nous renseigne pas sur lequel des trois résultats \(1,3,\) ou \(5\) nous avons finalement obtenu. Par conséquent, nous devrions supposer que leurs magnitudes relatives restent identiques à ce qu’elles étaient dans \(P\), de sorte que les nouvelles probabilités sont \(P'(\{1\}) = P'(\{3\}) = P'(\{5\}) = 1/3\).
Remarquez que la probabilité de chaque résultat \(\omega \in E = \{1,3,5\}\) est sa probabilité originale (\(P(\omega\}) = 1/6\)) multipliée par la probabilité originale de l’événement \(E\) lui-même \(P(E) = 1/2\).
Nous avons donc construit une nouvelle mesure \(P'\) sur \(\Omega\) qui nous permet d’étudier un seul coup de dé dans lequel nous savons que le résultat est un nombre impair.
Plus généralement, étant donné un univers \(\Omega\) et une mesure \(P\), pour modéliser une expérience aléatoire où nous savons en plus qu’un événement \(E \subseteq \Omega\) s’est produit, nous construisons une nouvelle mesure de telle sorte que :
Sous la nouvelle mesure, \(P(E \lvert E) = 1\) puisque nous savons que \(E\) s’est s’est sûrement produit.
\(P'\) attribue la probabilité zéro aux résultats qui ne sont pas dans \(E\) : \(\forall \omega \in \Omega \setminus E, P(\omega \lvert E) = 0\).
\(P'\) preserves the magnitudes relatives (par rapport à la mesure originale \(P\)) des résultats dans \(E\).
Sous ces hypothèses, chaque événement peut se voir attribuer une nouvelle probabilité qui est définie par :
Definition (Probabilité conditionnelle).
Soit \(P\) une mesure de probabilité sur un univers \(\Omega\) et que \(A, E \subseteq \Omega\) soient deux événements avec \(P(E) \neq 0\). Alors, la probabilité de \(A\) étant donné \(B\) est définie comme
Que se passe-t-il si nous supposons que \(A, E\) sont [indépendants] (def-indep) ? Intuitivement, nous devrions nous attendre à ce que, puisque l’occurrence de l’un n’affecte pas l’autre, la probabilité que \(A\) se produise reste la même, que l’on sache ou non si \(E\) se produit également. C’est effectivement le cas :
Lemma (Probabilité conditionnelle d’événements indépendants).
Soit \((\Omega, P)\) un espace probabilisé et \(A, E \subseteq \Omega\) soient deux événements indépendants. Alors,
La preuve découle directement des définitions de probabilité conditionnelle et de l’événement indépendant :
Un autre théorème important sur les probabilités conditionnelles est le suivant :
Théorème (Bayes).
Soit \(P\) une mesure de probabilité sur un univers \(\Omega\) et que \(A, B \subseteq \Omega\) soient deux événements avec \(P(E) \neq 0\). Alors,
La preuve du théorème découle de la définition de la probabilité conditionnelle. En effet, on a :
et si \(P(A) = 0\), le théorème tient trivialement.
Supposons donc que \(P(A) \neq 0\), auquel cas nous pouvons considérer la probabilité conditionnelle :
De la deuxième équation il résulte que :
Mais puisque \(B \cap A = A \cap B\) nous pouvons substituer ce résultat dans la première équation, ce qui donne le résultat souhaité.
La formule suivante permet de calculer la probabilité d’un événement \(A\) en connaissant les probabilités conditionnées \(P(A \lvert B_i)\) pour une partition appropriée \(B_i\) de l’univers \(\Omega\).
Lemma (Formule des probabilités totales).
Etant donné un espace probabilisé et une collection \(B_i\), \(i \in \{1, 2, \dots, n\}\) d’événements mutuellement exclusifs tels que leur union \(B_1 \cup B_2 \cup \dots \cup B_n = \Omega\), alors pour tout événement \(A\),
Variables aléatoires discrètes, leurs distributions et leurs valeurs attendues#
Au cours d’une expérience aléatoire, nous nous intéressons souvent non seulement aux résultats, mais aussi à diverses observables ou statistiques qui en dérivent.
Ceci est capturé par la notion de par la notion de variable aléatoire, qui est une valeur dépendant des résultats d’une d’une expérience aléatoire.
Pour rendre cela plus concret, considérons un nutritionniste (pas très compétent) qui a mis au point un régime dans lequel chaque repas se compose de frites, mais il y a un piège : le nombre de frites que nous mangeons est déterminé en lançant un dé équilibré ! Par exemple, le nombre de frites pourrait être le suivant:
We eat as many fries as the value we rolled.
We eat 100 fries if the value we’ve rolled is even and 0 if its odd.
Pour modéliser ces valeurs qui dépendent des résultats d’une expérience aléatoire, nous définissons une variable aléatoire discrète comme une fonction \(X : \Omega \rightarrow S\) où \(S\) est un ensemble fini ou dénombrable. Dans notre cas, nous supposerons que \(S \subseteq \mathbb{N}\).
Les exemples ci-dessus donnent alors les variables suivantes :
Une variable aléatoire \(X : \Omega \rightarrow \{1,2,3,4,5,6\}\) qui associe chaque résultat à sa valeur numérique : \(X(1) = 1, X(2) = 2\), etc.
Une variable aléatoire \(Y : \Omega \rightarrow \{0,100\}\) qui associe les résultats pairs à 0 et les résultats impairs à 0. les résultats pairs à 0 et les résultats impairs à 100 : \(Y(1) = Y(3) = Y(5) = 0, Y(2) = Y(4) = Y(6) = 100\).
Désambiguïsation.
Dans le premier exemple, il faut faire attention à bien distinguer les éléments de \(\Omega\) et ceux de \(S = \mathbb{N}\). En effet, nous aurions pu définir de manière équivalente \(\Omega = \{{\Large ⚀,⚁,⚂,⚃,⚄,⚅}\}\) auquel cas \(X({\Large ⚀}) = 1, X({\Large ⚁}) = 2,\) etc.
Pour revenir à notre exemple de régime alimentaire, deux questions viennent naturellement à l’esprit :
Quelle est la probabilité que nous mangions \(n\) frites par repas ?
Combien de frites devons-nous nous attendre à manger par repas ?
La réponse dépend bien sûr de la variable aléatoire considérée.
Pour formaliser les notions de « probabilité qu’une variable aléatoire » et de « moyenne d’une variable aléatoire », nous introduisons deux définitions importantes.
Définition (Distribution d’une variable aléatoire).
La distribution d’une variable aléatoire \(X\) est une mesure de sur \(S\) notée \(P(X = \cdot)\) et définie par :
pour tout \(s \in S\).
En d’autres termes, la probabilité \(P(X = s)\) que la variable aléatoire \(X\) soit égale à \(s\) est définie comme étant la probabilité \(P(X^{-1}(s)\) que l’événement \(X^{-1}(s) \subseteq \Omega\) se produise dans notre expérience.
Par exemple, pour le régime correspondant à \(X\), où le nombre de frites est donné par la valeur que l’on a obtenue, les pré-images de chaque entier \(i dans \{1,2,3,4,5,6\}\) sont \(X^{-1}(1) = \{1\}, X^{-1}(2) = \{2\}\), etc. Alors la probabilité \(P(X = 1)\) que nous mangions \(1\) de frites est la probabilité \(P(\{1\})=1/6\) que nous obtenions \(1\) au dé et ainsi de suite pour tous les autres \(i\).
Pour le régime correspondant à \(Y\), où le nombre de frites correspond aux événements d’un lancer pair ou impair, on a \(Y^{-1}(0) = \{1,3,5\}\) et \(Y^{-1}(100) = \{2,4,6\}\). Par conséquent, la probabilité \(P(Y = 0)\) que nous mangions \(0\) frites est \(P(\{1,3,5\}) = 1/2\) et la probabilité \(P(Y = 100)\) de manger \(100\) frites est \(P(\{2,4,6\}) = 1/2\).
Pour formaliser notre deuxième question, nous définissons le nombre suivant associé à une variable aléatoire :
Définition (valeur attendue).
Soit \(X : \Omega \rightarrow S\) une variable aléatoire discrète. On définit alors sa valeur attendue, notée \(E[X]\), comme suit :
Pour les deux exemples donnés ci-dessus :
Nous devrions nous attendre à manger \(E[X] = \frac{1+2+3+4+5+6}{6} = 3.5\) frites par repas.
Nous devrions nous attendre à manger \(E[Y] = \frac{0+100}{2} = 50\) de frites par repas.
Remarquez que les deux valeurs attendues sont rationnelles même si à chaque repas nous ne mangeons jamais qu’un nombre entier de frites !
Enfin, notons que l’on peut également calculer des valeurs attendues conditionnelles compte tenu d’un événement \(E\) :
Définition (valeur attendue conditionnelle).
Soit \(X : \Omega \rightarrow S\) soit une variable aléatoire discrète et que \(A \subseteq \Omega\) soit un événement de probabilité non nulle. La valeur attendue de \(X\) étant donnée \(A\), notée \(E[X \lvert A]\) est définie comme étant :
Par exemple, si nous suivons le régime correspondant à \(X\) défini ci-dessus et que nous savons également que nous avons obtenu un nombre pair, le nombre attendu de frites que nous mangerons pour ce repas est \(E[X \lvert \{2 4 6\}] =4\) (à comparer avec \(E[X] = 3,5\)). est \(E[X \lvert \{2,4,6\}] =4\) (à comparer avec \(E[X] = 3,5\)).
Un détail technique#
Warning
Note. Il n’est pas important que vous mémorisiez le contenu de cette section, ni même de le comprendre entièrement. La discussion ci-dessous concerne certains aspects techniques qui deviendront éventuellement importants pour le développement de la théorie des probabilités sur des espaces de probabilité plus généraux.
Tout au long de ce chapitre, nous avons évité de discuter d’un fait crucial : la collection d’événements que nous considérons doit être stable par passage au complémentaire et par union dénombrable (donc par intersection dénombrable aussi). Une telle structure est appelée une tribu.
En conséquence, la définition que nous avons donnée d’un espace de probabilité comme un couple \((\Omega, P)\) n’est pas complète. Au lieu de cela, la définition correcte inclut un troisième ingrédient : une collection \(\mathcal{F} \subseteq \mathcal{P}(\Omega)\) d’événements sur \(\Omega\) tels que \(\mathcal{F}\) est une tribu. Intuitivement, nous voulons que notre collection de événements soit :
stable par passage aux compléments, de sorte que pour tout événement \(A\) nous puissions parler également de l’événement « pas \(A\) ».
stable par passage aux unions et intersections dénombrables, de sorte que si l’on nous donne une collection dénombrable \(A_i\) d’événements, nous pouvons parler parler de l’événement « n’importe lequel des \(A_i\) » ou « tous les \(A_i\) ».
Dans ce chapitre, nous n’avons considéré que des univers finis \(\Omega\) et nous avons tacitement considéré que la tribu correspondante était \(\mathcal{F} = \mathcal{P}(\Omega)\). Cela revient à considérer tous les événements possibles sur l’univers \(\Omega\). C’est la tribu maximale sur \(\Omega\). Il en existe bien sûr d’autres, chacune pouvant être utilisée pour modéliser des situations dans lesquelles seuls certains types d’événements nous intéressent.
Pour nos besoins, prendre \(\mathcal{F} = \mathcal{P}(\Omega)\) était suffisant et nous a permis de simplifier les choses. Cependant, une fois de plus, la situation change énormément lorsqu’on passe au cas infini. Ceci est particulièrement important si l’on veut développer une théorie des probabilités sur \(\mathbb{R}\).
Finalement, une variable aléatoire n’est pas seulement une fonction \(X : \Omega \rightarrow S\) ! En effet, nous devons supposer que \(S\) est également équipé d’une certaine tribu \(\mathcal{G}\). Alors une variable aléatoire est une fonction qui préserve la structure des couples \((\Omega, \mathcal{F})\) et \((S, \mathcal{G})\), c’est-à-dire qu’elle satisfait \(X^{-1}(E) \in \mathcal{F}\) pour pour tout \(E \in \mathcal{G}\). Cette définition complète nous permet de généraliser la discussion des des variables aléatoires et des distributions à des espaces probabilistes beaucoup plus généraux.
Exercices#
Exercice 1#
Considérons une expérience aléatoire consistant à tirer à pile ou face une seule pièce de monnaie.
Décrivez l’espace probabilisé correspondant \((\Omega, P)\) et calculez les probabilités de tous les événements dans \(\mathcal{P}(\Omega)\).
Exercice 2#
Considérons l’expérience aléatoire consistant en un seul lancer de dé.
Définir l’événement \(A\) qui correspond à « la valeur du dé lancé est au moins égale à 3 ».
Rappeler la définition de la variable aléatoire \(X\) donnée ci-dessus, qui associe un lancer de dés à sa valeur dans \({1,2,3,4,5,6}\).
Calculer \(E[X | A]\), la valeur attendue de \(X\) compte tenu de l’événement \(A\).
Exercice 3#
Considérons une expérience aléatoire consistant à tirer à pile ou face deux pièces de monnaie équilibrées.
En utilisant l’espace de probabilité correspondant que nous avons introduit ci-dessus, définissez les événements suivants :
Événement \(H_0\) : la première pièce tombe sur face.
Événement \(T_0\) : la première pièce tombe sur pile.
Evénement \(H_1\) : la deuxième pièce tombe sur face.
Evénement \(T_1\) : la deuxième pièce tombe sur pile.
Calculer les probabilités correspondantes \(P(H_0), P(H_1), P(T_0), P(T_1)\).
Exercice 4#
Etant donné l’espace de probabilité \(\{\Omega, P\}\) et les événements \(H_0, T_0, H_1, T_1 \subseteq \Omega\) que vous avez définis dans l’exercice 3, calculez les probabilités conditionnelles suivantes :
\(P(H_1 | H_0)\) : la probabilité que la deuxième pièce tombe sur face étant donné que la première tombe sur face.
\(P(T_1 | H_0)\) : la probabilité que la deuxième pièce tombe sur pile étant donné que la première est tombée sur face.
Comparez les résultats ci-dessus avec les probabilités \(P(H_1)\) et \(P(T_1)\) que vous avez calculées précédemment. Que pouvez-vous déduire de cette comparaison ?
Exercice 5#
Considérons à nouveau l’expérience aléatoire traitée dans les exercices 3 et 4. Définissons une variable aléatoire \(X : \Omega \rightarrow \{0,1,2\}\) donnée par la somme des valeurs des deux jeux de pile ou face :
\(X(\{0,0\}) = 0\),
\(X(\{0,1\}) = 1\),
\(X(\{1,0\}) = 1\),
\(X(\{1,1\}) = 2\).
Calculer :
La distribution de \(X\).
La valeur attendue \(E[X]\).
La valeur attendue conditionnelle \(E[X | H_1]\), où \(H_1\) est l’evenement où la deuxième pièce tombe pile, comme défini dans exercice 3.
Exercice 6#
Une personne utilise sa voiture 30 % du temps, marche 30 % du temps et prend le bus 40 % du temps pour se rendre au travail.
Elle est en retard 10 % du temps lorsqu’elle marche,
elle est en retard 3 % du temps lorsqu’elle conduit,
et elle est en retard 7 % du temps lorsqu’elle prend le bus.
Quelle est la probabilité qu’elle ait pris le bus si elle était en retard ?
Quelle est la probabilité qu’elle ait marché si elle est à l’heure ?
Exercice 7#
On estime que 50 % des courriels sont des spams. Certains logiciels ont été conçus pour filtrer ces courriels avant qu’ils n’atteignent votre boîte de réception. Une certaine marque de logiciel prétend pouvoir détecter 99 % des courriels non sollicités, et la probabilité d’un faux positif (un courriel qui n’est pas du spam et qui est détecté comme tel) est de 5 %.
Si un courriel est détecté comme étant du spam, quelle est la probabilité qu’il s’agisse en fait d’un courriel qui n’est pas du spam ?
Exercice 8#
On considère un lancer de dé à 8 faces. L’univers \(Ω\) est \(\{1, 2, 3, 4, 5, 6, 7, 8\}\). On suppose que
Déterminer la valeur de \(P(2)\).
Calculer la probabilité de l’évènement « Obtenir un nombre pair. »
Exercice 9#
Dans une classe de 32 étudiant.e.s, 12 ont pris anglais, 8 ont pris allemand et 3 ont pris à la fois anglais et allemand. On choisit au hasard un.e étudiant.e, quelle est la probabilité pour qu’il ait pris soit anglais soit allemand ?
Exercice 10#
On s’intéresse au tirage d’une carte dans un jeu de 32 cartes. Pour les deux évènements \(A\) et \(B\), calculer \(P(A)\), \(P(B)\), déterminer si ils sont indépendants et sinon, déterminer la probabilité \(P(A|B)\):
\(A\) = « La carte est une figure » et \(B\) = « La carte est un trèfle ».
\(A\) = « La carte est inférieure ou égale à 10» et \(B\) = « La carte n’est pas un coeur. »
\(A\) = « La carte est un coeur » et \(B\) = « La carte est rouge. »
Exercise 11#
Dans une population, les individus sont répartis en quatre groupes sanguins : A, B, AB et O et à l’intérieur de chaque groupe en Rhésus + ou - selon le tableau suivant en pourcentages :
Groupe |
A |
B |
AB |
O |
---|---|---|---|---|
Rhésus + |
38 |
8 |
3 |
36 |
Rhésus - |
7 |
1 |
1 |
6 |
Notons que cela définit bien une probabilité sur l’univers \(Ω = \{A+, A−, B+, B−, AB+, AB−, O+, O−\}\) avec par exemple \(P(A+) = 0.38\). On vérifie que la somme des probabilités donne bien 1.
Calculer la probabilité qu’un individu choisi au hasard soit du groupe O sachant qu’il a un rhésus −.
Calculer la probabilité qu’un individu choisi au hasard ait un rhésus - sachant qu’il est du groupe O.