Ce cours propose une introduction à la modélisation probabiliste fondée sur la théorie des graphes, pratique en Intelligence Artificielle et en Statistiques. Après un rappel des notions indispensables en probabilités (conditionnement, théorème de transfert, chaînes de Markov), nous introduirons la notion de graphe de dépendance. Après avoir précisé les règles de conditionnement et de marginalisation nous nous intéresserons aux chaînes de Markov, qui sont les modèles graphiques les plus simples. Cela permet par ailleurs d’étudier de façon approfondie les propriétés de Markov associées à différents types de graphes (factorisation des lois de probabilité étudiées le long d’un graphe). Les chaînes de Markov cachées sont également introduites par la suite et leur intérêt est illustré par des exemples d’application en traitements du signal, des images, et en traitement de langage naturel. Enfin, d’autres modèles graphiques markoviens sont rapidement décrits, avec un accent particulier sur les réseaux bayésiens, illustrés par différents exemples applicatifs.