Méthode du maximum de vraisemblance et stress de liquidité en termes simples

La méthode du maximum de vraisemblance est une technique statistique utilisée pour estimer les paramètres d’un modèle probabiliste à partir de données observées. Elle vise à trouver les valeurs des paramètres qui rendent les données les plus probables, c’est-à-dire celles qui maximisent la probabilité d’observer ces données en fonction du modèle. Étudions les principales étapes à suivre dans le cadre de cette méthode.

Définir une fonction de vraisemblance

La première étape consiste à définir une fonction de vraisemblance, qui est une fonction des paramètres inconnus du modèle basée sur les données observées. Si l’on a un ensemble de données \(X_1, X_2, \dots, X_n\) qui suivent une loi de probabilité \(f(x; \theta)\), où \(\theta\) est un vecteur de paramètres inconnus, la fonction de vraisemblance est la probabilité conjointe d’observer cet ensemble de données :

\[ L(\theta) = P(X_1 = x_1, X_2 = x_2, \dots, X_n = x_n ; \theta) \]

Si les observations \(X_1, X_2, \dots, X_n\) sont indépendantes, la fonction de vraisemblance se réduit au produit des densités de probabilité individuelles :

\[ L(\theta) = \prod_{i=1}^{n} f(X_i; \theta) \]

Maximiser la fonction de vraisemblance

L’objectif est de trouver les valeurs des paramètres \(\theta\) qui maximisent cette fonction. Comme la fonction de vraisemblance est souvent un produit de probabilités, il est courant de travailler avec le logarithme de cette fonction, appelé log-vraisemblance, car cela transforme le produit en somme et simplifie donc les calculs :

\[ \log L(\theta) = \sum_{i=1}^{n} \log f(X_i; \theta) \]

Calcul des dérivées et résolution

Pour maximiser la log-vraisemblance, on dérive cette fonction par rapport à chaque paramètre du modèle et on résout l’équation en posant cette dérivée égale à zéro. Cela permet de trouver les valeurs des paramètres qui maximisent la log-vraisemblance, et donc la vraisemblance.

Si \(\theta\) est un vecteur de paramètres, on résout le système suivant pour trouver les estimations de \(\theta\) :

\[ \frac{d(\log L(\theta))}{d\theta} = 0 \]

Exemple : Estimation de la moyenne d’une distribution normale

Prenons l’exemple où les données \(X_1, X_2, \dots, X_n\) proviennent d’une distribution normale avec une moyenne \(\mu\) et une variance \(\sigma^2\), et que l’on souhaite estimer \(\mu\) (en supposant que \(\sigma^2\) est connu).

La densité de probabilité d’une variable normale est :

\[ f(x; \mu, \sigma^2) = \frac{1}{\sqrt{2\pi\sigma^2}} \exp\left(-\frac{(x - \mu)^2}{2\sigma^2}\right) \]

La fonction de vraisemblance pour un échantillon est alors :

\[ L(\mu) = \prod_{i=1}^{n} \frac{1}{\sqrt{2\pi\sigma^2}} \exp\left(-\frac{(X_i - \mu)^2}{2\sigma^2}\right) \]

En prenant le logarithme, on obtient la log-vraisemblance :

\[ \log L(\mu) = -\frac{n}{2} \log(2\pi\sigma^2) - \frac{1}{2\sigma^2} \sum_{i=1}^{n} (X_i - \mu)^2 \]

Pour maximiser cette log-vraisemblance, on dérive par rapport à \(\mu\) et on résout l’équation :

\[ \frac{d(\log L(\mu))}{d\mu} = \frac{1}{\sigma^2} \sum_{i=1}^{n} (X_i - \mu) = 0 \]

Cela donne l’estimateur du maximum de vraisemblance :

\[ \hat{\mu} = \frac{1}{n} \sum_{i=1}^{n} X_i \]

Application aux stress tests de liquidité

La densité de la loi de Pareto généralisée (GPD) est donnée par :

\[ f(y; \sigma, \xi) = \frac{1}{\sigma} \left(1 + \xi \frac{y}{\sigma}\right)^{-\frac{1}{\xi} - 1} \]

La log-vraisemblance est alors :

\[ \log L(\xi, \sigma) = -n \log \sigma - \left(1 + \frac{1}{\xi}\right) \sum_{i=1}^{n} \log\left(1 + \xi \frac{y_i}{\sigma}\right) \]


Write a comment

Comments: 0