MANUELS SCOLAIRES

COURS DE PROBABILITÉ, 4ÈME ANNÉE DES HUMANITÉS SCIENTIFIQUES

Edition 2025 / Enseignement primaire, secondaire et technique en RDC.

PRÉLIMINAIRES

I. Présentation du cours

Ce cours de Probabilité offre une introduction formelle à la science de l’incertitude et du hasard. Il fournit les fondements mathématiques nécessaires pour modéliser, analyser et interpréter les phénomènes aléatoires omniprésents dans les sciences naturelles, l’ingénierie, l’économie et la vie quotidienne. La formation est conçue pour développer un raisonnement rigoureux face aux situations non déterministes.

II. Objectifs généraux

L’objectif principal est de doter les élèves de la capacité de quantifier l’incertitude à l’aide d’outils mathématiques précis. Le cours vise la maîtrise des concepts d’espace probabilisé, de variable aléatoire, de loi de probabilité et des principaux théorèmes qui régissent le comportement des phénomènes aléatoires à grande échelle, assurant une base solide pour les études supérieures scientifiques.

III. Compétences visées

Au terme de ce programme, l’élève sera en mesure de construire un modèle probabiliste pertinent pour une situation donnée, de calculer les probabilités d’événements complexes, d’analyser des distributions de données et d’appliquer les principes de l’estimation statistique et des tests d’hypothèses. Ces compétences sont transversales et essentielles à la démarche scientifique moderne.

IV. Méthode d’évaluation

L’évaluation des compétences s’effectuera par des interrogations formatives qui vérifieront la compréhension des concepts théoriques, des résolutions de problèmes complexes qui testeront la capacité d’application, ainsi que des projets d’analyse de données. Une épreuve finale synthétisera l’ensemble de la matière pour valider la maîtrise globale du programme.

V. Matériel requis

La réussite dans ce cours nécessite l’utilisation systématique d’une calculatrice scientifique avec des fonctions statistiques. L’accès à des tables de distributions statistiques (loi normale, Student, Khi-carré) est indispensable. L’usage d’un logiciel tableur ou statistique pour des simulations et des analyses de données sera également encouragé.

 

 

PREMIÈRE PARTIE : FONDAMENTAUX DES PROBABILITÉS 🎲

Cette partie introductive construit le socle axiomatique et conceptuel de la théorie des probabilités. Elle formalise le langage mathématique permettant de décrire une expérience aléatoire, définit les objets centraux que sont les événements et les variables aléatoires, et explore les lois de probabilité les plus courantes pour les systèmes discrets et continus.

CHAPITRE 1 : ESPACE PROBABILISÉ

1.1 Définitions et exemples

Ce chapitre établit le vocabulaire de base de la théorie des probabilités. Il définit une expérience aléatoire, l’univers des possibles (Ω) et un événement comme un sous-ensemble de cet univers, en s’appuyant sur des exemples intuitifs tels que le lancer d’un dé, le tirage de cartes ou l’observation du sexe d’un nouveau-né dans une maternité de Kananga.

1.2 Événements et tribus

La notion d’ensemble d’événements observables est formalisée à travers le concept de tribu (ou σ-algèbre). Cette structure mathématique garantit que les opérations logiques sur les événements (union, intersection, complémentaire) produisent toujours des ensembles dont la probabilité peut être mesurée, assurant ainsi la cohérence du modèle.

1.3 Axiomes de Kolmogorov

Les trois axiomes de Kolmogorov sont présentés comme les règles fondamentales qui régissent toute mesure de probabilité. Ces axiomes (positivité, certitude, additivité) constituent le fondement non-négociable de toute la théorie et permettent de déduire l’ensemble des propriétés de calcul des probabilités.

1.4 Probabilité conditionnelle

Le concept de probabilité conditionnelle est introduit pour modéliser l’ajustement de nos connaissances lorsqu’une information partielle est révélée. La formule de Bayes et la notion d’indépendance stochastique sont étudiées comme des outils puissants pour analyser les relations de cause à effet et les dépendances entre événements.

CHAPITRE 2 : VARIABLES ALÉATOIRES DISCRÈTES

2.1 Lois de probabilité classiques

Ce chapitre introduit les variables aléatoires discrètes, qui prennent un nombre fini ou dénombrable de valeurs. Les lois de probabilité fondamentales comme la loi de Bernoulli (succès/échec), la loi uniforme discrète et d’autres distributions classiques sont définies et illustrées.

2.2 Fonction de répartition et densité de probabilité

La loi d’une variable aléatoire discrète est entièrement caractérisée par sa fonction de masse (ou densité de probabilité), qui associe une probabilité à chaque valeur possible. La fonction de répartition, qui donne la probabilité que la variable soit inférieure ou égale à une certaine valeur, est également étudiée comme outil d’analyse.

2.3 Espérance, variance et moments

Les indicateurs numériques qui résument une loi de probabilité sont présentés. L’espérance mathématique est définie comme la valeur moyenne attendue, la variance comme une mesure de la dispersion autour de cette moyenne, et l’écart-type comme son équivalent dans l’unité de la variable.

2.4 Loi binomiale, géométrique et Poisson

Trois lois discrètes majeures sont étudiées en détail. La loi binomiale modélise le nombre de succès dans une série d’épreuves indépendantes. La loi géométrique décrit le temps d’attente du premier succès. La loi de Poisson est utilisée pour compter les événements rares survenant dans un intervalle de temps ou d’espace, comme le nombre d’appels reçus par un standard téléphonique à Mbuji-Mayi.

CHAPITRE 3 : VARIABLES ALÉATOIRES CONTINUES

3.1 Densités continues

Ce chapitre étend l’analyse aux variables aléatoires continues, qui peuvent prendre n’importe quelle valeur dans un intervalle. Le concept de fonction de densité de probabilité est introduit, où la probabilité est représentée par l’aire sous la courbe de la densité.

3.2 Loi uniforme, exponentielle, normale

Plusieurs lois continues fondamentales sont explorées. La loi uniforme modélise un choix au hasard dans un intervalle. La loi exponentielle est souvent utilisée pour décrire des durées de vie ou des temps d’attente. La loi normale (ou de Gauss), avec sa forme de cloche caractéristique, est présentée comme la distribution la plus importante en statistique.

3.3 Propriétés et calculs d’espérance

Le calcul de l’espérance et de la variance pour les variables continues est abordé, nécessitant l’utilisation du calcul intégral pour sommer les contributions pondérées de toutes les valeurs possibles. Les propriétés de linéarité de l’espérance sont également généralisées.

3.4 Transformations et changement de variable

L’étude de la loi d’une variable aléatoire obtenue par transformation d’une autre variable est entreprise. Des techniques comme la méthode du changement de variable sont introduites pour déterminer la fonction de densité de la nouvelle variable, une compétence essentielle pour la modélisation avancée.

CHAPITRE 4 : LOIS MULTIVARIÉES

4.1 Variables aléatoires vectorielles

L’analyse se porte désormais sur l’étude simultanée de plusieurs variables aléatoires, représentées par un vecteur. Cette approche est indispensable pour modéliser des expériences où plusieurs quantités sont mesurées en même temps, comme la température et l’humidité à l’aéroport de Goma.

4.2 Densités conjointes et marges

La loi d’un vecteur aléatoire est décrite par sa densité conjointe. À partir de cette dernière, les lois de chaque composante individuelle, appelées lois marginales, peuvent être extraites. Le concept de densité conditionnelle permet d’étudier le comportement d’une variable lorsque la valeur d’une autre est connue.

4.3 Indépendance et covariance

La notion d’indépendance entre variables aléatoires est formalisée. La covariance et le coefficient de corrélation sont introduits comme des mesures de la dépendance linéaire entre deux variables, permettant de quantifier si elles ont tendance à varier ensemble ou en sens opposé.

4.4 Loi multinomiale et gaussienne multivariée

Des extensions multivariées de lois classiques sont présentées. La loi multinomiale généralise la loi binomiale pour des expériences à plus de deux issues. La loi normale multivariée (ou gaussienne) est introduite comme un modèle fondamental pour les vecteurs de mesures continues en sciences.

 

 

DEUXIÈME PARTIE : THÉORÈMES LIMITES ET ESTIMATION 📈

Cette partie aborde les résultats fondamentaux qui décrivent le comportement asymptotique des suites de variables aléatoires. Ces théorèmes justifient le passage de la théorie des probabilités à la pratique de la statistique inférentielle, en expliquant pourquoi et comment les informations issues d’un échantillon limité peuvent être utilisées pour tirer des conclusions fiables sur une population entière.

CHAPITRE 5 : LOI DES GRANDS NOMBRES

5.1 Énoncé faible et fort

La loi des grands nombres (LGN) est présentée comme le théorème qui relie la probabilité théorique d’un événement à sa fréquence d’apparition observée. Les énoncés faible et fort du théorème sont distingués, précisant la nature de la convergence de la moyenne empirique vers l’espérance théorique.

5.2 Convergence en probabilité

Le concept de convergence en probabilité est défini formellement. Il s’agit d’une manière de décrire comment une suite de variables aléatoires se rapproche d’une valeur limite, et c’est le mode de convergence associé à la loi faible des grands nombres.

5.3 Applications aux fréquences empiriques

Une application directe de la LGN est la justification de l’estimation d’une probabilité inconnue par la fréquence observée dans un grand échantillon. Ce principe fonde la méthode des sondages et l’estimation des proportions dans une population.

5.4 Conséquences pour l’estimation

La LGN garantit que, sous de bonnes conditions, la moyenne d’un échantillon est un bon estimateur de la moyenne de la population. Elle assure la « consistance » de cet estimateur, signifiant que son exactitude augmente avec la taille de l’échantillon.

CHAPITRE 6 : THÉORÈME CENTRAL LIMITE

6.1 Énoncé et interprétations

Le Théorème Central Limite (TCL) est présenté comme l’un des résultats les plus remarquables de la théorie des probabilités. Il stipule que la somme ou la moyenne d’un grand nombre de variables aléatoires indépendantes et identiquement distribuées suit approximativement une loi normale, quelle que soit la loi initiale de ces variables.

6.2 Convergence en distribution

Le mode de convergence associé au TCL, la convergence en distribution (ou en loi), est défini. Il décrit comment la fonction de répartition d’une suite de variables aléatoires se rapproche de celle d’une loi limite.

6.3 Approximation normale

Le TCL justifie l’utilisation de la loi normale comme modèle d’approximation dans une multitude de situations pratiques. Par exemple, la loi binomiale peut être approximée par une loi normale pour de grands échantillons, ce qui simplifie considérablement les calculs.

6.4 Applications pratiques

Les applications du TCL sont vastes. Il est au cœur de la construction des intervalles de confiance et des tests d’hypothèses sur les moyennes, et il explique pourquoi la distribution de nombreuses caractéristiques biologiques ou physiques dans une population (comme la taille) suit souvent une courbe en cloche.

CHAPITRE 7 : ESTIMATEURS ET BIAIS

7.1 Estimateurs ponctuels

Un estimateur est une statistique calculée à partir d’un échantillon pour estimer un paramètre inconnu de la population (comme la moyenne ou la variance). Ce chapitre introduit la distinction fondamentale entre le paramètre (valeur vraie, fixe mais inconnue) и l’estimateur (variable aléatoire dont la valeur dépend de l’échantillon).

7.2 Biais et consistance

Les qualités d’un bon estimateur sont étudiées. Un estimateur est dit sans biais si son espérance est égale au paramètre qu’il vise à estimer. La consistance, déjà évoquée, garantit sa convergence vers la vraie valeur. L’efficacité, liée à la variance, mesure sa précision.

7.3 Méthode des moments

La méthode des moments est présentée comme une première technique systématique pour construire des estimateurs. Elle consiste à égaliser les moments théoriques (qui dépendent des paramètres) avec les moments empiriques (calculés sur l’échantillon) et à résoudre le système d’équations obtenu.

7.4 Méthode du maximum de vraisemblance

La méthode du maximum de vraisemblance, plus puissante et plus générale, est introduite. Elle consiste à trouver les valeurs des paramètres qui maximisent la probabilité (ou la vraisemblance) d’avoir observé l’échantillon recueilli.

CHAPITRE 8 : INTERVALLES DE CONFIANCE

8.1 Construction pour la moyenne

Au lieu de donner une seule valeur comme estimation, les intervalles de confiance fournissent une plage de valeurs plausibles pour un paramètre inconnu. Ce chapitre détaille la construction d’un intervalle de confiance pour la moyenne d’une population, en utilisant le TCL et la loi normale ou la loi de Student.

8.2 Intervalle pour la proportion

La méthode est ensuite appliquée à l’estimation d’une proportion inconnue dans une population, un problème courant dans les sondages d’opinion ou les études épidémiologiques. L’intervalle de confiance permet de quantifier la marge d’erreur associée au résultat du sondage.

8.3 Intervalle pour la variance

La construction d’un intervalle de confiance pour la variance d’une population, qui mesure sa dispersion, est également abordée. Cette construction s’appuie sur une autre loi de probabilité, la loi du Khi-carré (χ²), qui régit la distribution de la variance empirique.

8.4 Intervalles asymptotiques

Pour de nombreux estimateurs complexes, en particulier ceux obtenus par le maximum de vraisemblance, la distribution exacte est inconnue. Cependant, des résultats asymptotiques (basés sur le TCL) permettent de construire des intervalles de confiance approximatifs qui sont valides pour de grands échantillons.

 

 

TROISIÈME PARTIE : TESTS D’HYPOTHÈSES ET RÉGRESSION 📊

Cette section est dédiée à la statistique inférentielle, c’est-à-dire à l’ensemble des méthodes permettant de prendre des décisions et de valider des hypothèses scientifiques sur la base de données expérimentales. Elle couvre les tests statistiques standards et introduit la régression linéaire comme outil de modélisation de la dépendance entre variables.

CHAPITRE 9 : TESTS PARAMÉTRIQUES

9.1 Tests z et t

Les tests d’hypothèses sont introduits comme une procédure formelle pour trancher entre une hypothèse nulle (H0) et une hypothèse alternative (H1). Les tests z (variance connue) et t de Student (variance inconnue) sont étudiés pour comparer une moyenne d’échantillon à une valeur de référence ou pour comparer les moyennes de deux échantillons.

9.2 Tests du χ²

Le test du Khi-carré (χ²) est présenté sous deux de ses formes principales. Le test d’ajustement permet de vérifier si des données observées suivent une loi de probabilité théorique. Le test d’indépendance permet de déterminer s’il existe une liaison statistiquement significative entre deux variables qualitatives, par exemple, entre une région et une préférence politique.

9.3 ANOVA unidirectionnelle

L’analyse de la variance (ANOVA) est introduite comme une généralisation du test t pour comparer les moyennes de plus de deux groupes simultanément. Cette méthode est très utilisée en agronomie pour comparer l’efficacité de plusieurs fertilisants sur le rendement d’une culture dans la plaine de la Ruzizi.

9.4 Erreurs de type I et II

La théorie des tests d’hypothèses implique un risque d’erreur. L’erreur de type I consiste à rejeter l’hypothèse nulle à tort, tandis que l’erreur de type II consiste à ne pas la rejeter alors qu’elle est fausse. La notion de niveau de signification (α) et de puissance d’un test (1-β) est introduite pour quantifier et contrôler ces risques.

CHAPITRE 10 : TESTS NON PARAMÉTRIQUES

10.1 Test de Wilcoxon

Les tests non paramétriques sont présentés comme des alternatives robustes lorsque les conditions d’application des tests paramétriques (notamment la normalité des données) ne sont pas satisfaites. Le test des rangs signés de Wilcoxon est étudié pour comparer des données appariées.

10.2 Test de Kruskal–Wallis

Le test de Kruskal-Wallis est introduit comme l’équivalent non paramétrique de l’ANOVA. Il permet de comparer plusieurs échantillons indépendants en se basant sur le rang des observations plutôt que sur leurs valeurs brutes.

10.3 Test de Kolmogorov–Smirnov

Le test de Kolmogorov-Smirnov est un test d’ajustement qui compare la fonction de répartition empirique d’un échantillon à une fonction de répartition théorique. Il est particulièrement utile pour tester si des données suivent une loi continue spécifique, comme une loi normale ou exponentielle.

10.4 Applications

Les situations où les tests non paramétriques sont préférables sont discutées. Ils sont particulièrement adaptés pour les petits échantillons, les données ordinales (classées mais non numériques) ou lorsque la distribution des données est fortement asymétrique.

CHAPITRE 11 : RÉGRESSION LINÉAIRE SIMPLE

11.1 Modèle et hypothèses

La régression linéaire simple est introduite comme une méthode pour modéliser la relation entre une variable dépendante (Y) et une seule variable explicative (X) par une droite. Les hypothèses du modèle (linéarité, indépendance, homoscédasticité et normalité des résidus) sont clairement énoncées.

11.2 Estimation des coefficients

La méthode des moindres carrés ordinaires est présentée comme la technique standard pour estimer les coefficients de la droite de régression (l’ordonnée à l’origine et la pente). Cette méthode minimise la somme des carrés des écarts entre les points observés et la droite ajustée.

11.3 Analyse de la variance de régression

L’analyse de la variance est appliquée au contexte de la régression pour décomposer la variabilité totale de la variable dépendante en une part expliquée par le modèle et une part résiduelle. Le coefficient de détermination R² est introduit comme une mesure de la qualité de l’ajustement du modèle.

11.4 Diagnostics et validité

Ce chapitre se concentre sur la vérification des hypothèses du modèle. L’analyse graphique des résidus est une étape cruciale pour détecter d’éventuels problèmes comme la non-linéarité ou l’hétéroscédasticité, qui pourraient invalider les conclusions de la régression.

CHAPITRE 12 : RÉGRESSION LINÉAIRE MULTIPLE

12.1 Modèle matriciel

La régression linéaire multiple généralise le modèle simple en incluant plusieurs variables explicatives. La formulation du modèle à l’aide du calcul matriciel est introduite pour une représentation compacte et une résolution efficace.

12.2 Estimation par moindres carrés

La méthode des moindres carrés est étendue au cas multiple. La solution matricielle pour l’estimation des coefficients de régression est dérivée, montrant comment le modèle ajuste un hyperplan aux données dans un espace multidimensionnel.

12.3 Multicolinéarité

Le problème de la multicolinéarité, qui survient lorsque les variables explicatives sont fortement corrélées entre elles, est discuté. Ce phénomène peut rendre l’estimation des coefficients instable et leur interprétation difficile. Des méthodes de diagnostic sont présentées.

12.4 Sélection de variables

Dans un contexte avec de nombreuses variables explicatives potentielles, il est souvent souhaitable de construire un modèle plus parcimonieux. Des stratégies de sélection de variables (ascendante, descendante, pas-à-pas) sont introduites pour choisir le meilleur sous-ensemble de prédicteurs.

 

 

QUATRIÈME PARTIE : PROCESSUS STOCHASTIQUES ET APPLICATIONS 🔄

Cette dernière partie constitue une ouverture vers la modélisation de systèmes qui évoluent de manière aléatoire dans le temps. Les processus stochastiques sont des outils essentiels dans de nombreux domaines tels que la physique, la finance, la biologie et les télécommunications. Ce chapitre introduit deux des processus les plus importants, les chaînes de Markov et les processus de Poisson, et esquisse leurs vastes champs d’application.

CHAPITRE 13 : CHAÎNES DE MARKOV

13.1 Propriétés de Markov

Une chaîne de Markov est un processus stochastique qui décrit une séquence d’événements dans laquelle la probabilité de chaque événement ne dépend que de l’état atteint lors de l’événement précédent. Cette propriété de « perte de mémoire » est la caractéristique fondamentale qui définit le processus.

13.2 Matrice de transition

Une chaîne de Markov à espace d’états fini est entièrement caractérisée par sa matrice de transition. Cette matrice contient les probabilités de passer d’un état à un autre en une seule étape. Le calcul des puissances de cette matrice permet de déterminer les probabilités de transition sur plusieurs étapes.

13.3 Chaînes irréductibles et stationnarité

Les propriétés à long terme des chaînes de Markov sont étudiées. Les concepts de communication entre les états, d’irréductibilité et de périodicité sont définis. La notion de distribution stationnaire, qui décrit l’équilibre statistique du système après un grand nombre d’étapes, est un point central de ce chapitre.

13.4 Temps d’absorption

Pour les chaînes de Markov possédant des états absorbants (desquels on ne peut sortir), l’analyse se concentre sur le calcul du temps moyen avant d’atteindre un de ces états. Cette technique a des applications dans l’étude de la durée de vie de systèmes ou dans la modélisation de jeux.

CHAPITRE 14 : PROCESSUS DE POISSON ET APPLICATIONS

14.1 Propriétés et définitions

Le processus de Poisson est un processus de comptage qui modélise le nombre d’événements survenant au cours du temps. Il est défini par la propriété que les nombres d’arrivées dans des intervalles de temps disjoints sont indépendants et suivent une loi de Poisson.

14.2 Loi des arrivées

Ce chapitre explore la distribution des temps entre les événements successifs dans un processus de Poisson. Il est démontré que ces temps d’inter-arrivée suivent une loi exponentielle, établissant un lien fondamental entre la loi de Poisson (discrète) et la loi exponentielle (continue).

14.3 Processus de renouvellement

Le processus de Poisson est un cas particulier d’une classe plus large de processus appelés processus de renouvellement, où les temps entre les événements sont des variables aléatoires indépendantes et identiquement distribuées, mais pas nécessairement exponentielles.

14.4 Applications en file d’attente

La théorie des files d’attente est l’un des domaines d’application les plus importants des processus stochastiques. Elle utilise les processus de Poisson pour modéliser les arrivées de « clients » et d’autres distributions pour modéliser les temps de « service », afin d’analyser et d’optimiser les systèmes d’attente (guichets de banque, serveurs informatiques, etc.).

 

 

ANNEXES

I. Tables des distributions usuelles

Cette annexe rassemble les tables numériques des fonctions de répartition et des quantiles pour les lois de probabilité les plus importantes étudiées dans le cours, notamment la loi normale centrée réduite, la loi de Student, la loi du Khi-carré et la loi de Fisher. Elles sont un outil indispensable pour les calculs pratiques en statistique inférentielle.

II. Rappels de calcul intégral

Étant donné que l’étude des variables aléatoires continues repose sur le calcul intégral, cette annexe fournit un rappel concis des définitions et des techniques de base de l’intégration. Elle couvre l’intégrale de Riemann, les primitives usuelles, l’intégration par parties et le changement de variable.

III. Protocole de conduite d’expérience et collecte de données

Cette dernière annexe propose un guide méthodologique pour la mise en pratique des concepts du cours. Elle détaille les étapes de la conduite d’une expérience scientifique, depuis la formulation d’une hypothèse et la conception d’un plan d’échantillonnage jusqu’à la collecte rigoureuse des données et leur préparation en vue d’une analyse statistique.

Pour acheter le livre (Version électronique PDF)