Méthode du maximum de vraisemblance et stress de liquidité en termes simples

La méthode du maximum de vraisemblance est une technique statistique utilisée pour estimer les paramètres d’un modèle probabiliste à partir de données observées. Elle vise à trouver les valeurs des paramètres qui rendent les données les plus probables, c’est-à-dire celles qui maximisent la probabilité d’observer ces données en fonction du modèle. Étudions les principales étapes à suivre dans le cadre de cette méthode. 

 

Définir une fonction de vraisemblance:

 

La première étape consiste à définir une fonction de vraisemblance, qui est une fonction des paramètres inconnus du modèle basée sur les données observées. Si l’on a un ensemble de données  qui suivent une loi de probabilité , où  est un vecteur de paramètres inconnus, la fonction de vraisemblance est la probabilité conjointe d’observer cet ensemble de données.

 

La fonction de vraisemblance est donc :

 

L(θ) = P(X_1 = x_1, X_2 = x_2, …, X_n = x_n ; θ)

 

Si les observations  sont indépendantes, la fonction de vraisemblance se réduit au produit des densités de probabilité individuelles :

 

L(θ) = Π_{i=1}^{n} f(X_i; θ)

 

Maximiser la fonction de vraisemblance :

 

L’objectif est de trouver les valeurs des paramètres  qui maximisent cette fonction. Comme la fonction de vraisemblance est souvent un produit de probabilités, il est courant de travailler avec le logarithme de cette fonction, appelé log-vraisemblance, car cela transforme le produit en somme et  simplifie donc les calculs :

 

log L(θ) = Σ_{i=1}^{n} log f(X_i; θ)

 

Calcul des dérivées et résolution :

 

Pour maximiser la log-vraisemblance, on dérive cette fonction par rapport à chaque paramètre du modèle et on résout l’équation en posant cette dérivée égale à zéro. Cela permet de trouver les valeurs des paramètres qui maximisent la log-vraisemblance, et donc la vraisemblance.

 

Si  est un vecteur de paramètres, on résout le système suivant pour trouver les estimations de  :

 

d(log L(θ)) / dθ = 0

 

Vérification du maximum :

 

Il est nécessaire de vérifier que les solutions obtenues correspondent à un maximum, en utilisant par exemple la dérivée seconde de la log-vraisemblance, ou d’autres tests pour s’assurer que l’on n’a pas trouvé un minimum ou un point d’inflexion.

 

  • Exemple : Estimation de la moyenne d’une distribution normale

Prenons l’exemple où les données  proviennent d’une distribution normale avec une moyenne  μ et une variance σ^2, et que l’on souhaite estimer  (en supposant que  est connu).

 

La densité de probabilité d’une variable normale est : f(x; μ, σ²) = (1 / √(2πσ²)) × exp(-(x - μ)² / (2σ²))

 

La fonction de vraisemblance pour un échantillon est alors :

 

L(μ) = ∏ (1 / √(2πσ²)) × exp(-(Xᵢ - μ)² / (2σ²)) pour i = 1 à n

 

En prenant le logarithme, on obtient la log-vraisemblance :

 

log L(μ) = - (n / 2) × log(2πσ²) - (1 / 2σ²) × Σ (Xᵢ - μ)² pour i = 1 à n

 

Pour maximiser cette log-vraisemblance, on dérive par rapport à μ et on résout l’équation :

 

d(log L(μ)) / dμ = (1 / σ²) × Σ (Xᵢ - μ) = 0 pour i = 1 à n

 

Cela donne l’estimateur du maximum de vraisemblance :

 

μ̂ = (1 / n) × Σ Xᵢ pour i = 1 à n

 

C’est simplement la moyenne des observations, qui est l’estimation qui maximise la vraisemblance.

 

Application aux stress tests de liquidité:

 

On peut utiliser la méthode du maximum de vraisemblance pour estimer les paramètres de la loi de Pareto généralisée (GPD), afin de modéliser les valeurs au-delà d’un seuil critique dans le cadre des rachats extrêmes des fonds d’investissement.

 

La densité de la GPD est donnée par :

 

f(y; σ, ξ) = (1 / σ) * (1 + ξ * (y / σ))^(-1 / ξ - 1)

 

où  est le paramètre d’échelle et  ξ est le paramètre de queue.

 

Le paramètre d’échelle est un paramètre statistique qui contrôle la dispersion ou l’étendue d’une distribution de probabilité. Il influe sur la largeur de la distribution sans en modifier la forme générale. Dans le cadre de différentes distributions, le paramètre d’échelle détermine essentiellement “l’étendue” des valeurs que peut prendre une variable aléatoire.

 

Plus la valeur du paramètre d’échelle est élevée, plus la distribution sera “étirée” horizontalement, et donc plus les valeurs extrêmes seront éloignées de la moyenne ou du centre de la distribution.

 

Inversement, une valeur faible du paramètre d’échelle rend la distribution plus “compressée”, avec des valeurs concentrées autour du centre.

 

Dans la distribution normale, la variance (ou l’écart-type σ joue le rôle de paramètre d’échelle. Si σ est grand, la distribution s’étale sur une grande plage de valeurs, et si σ est petit, les données sont concentrées autour de la moyenne.

 

La log-vraisemblance est alors :

 

log L(ξ, σ) = -n * log σ - (1 + 1 / ξ) * Σ_{i=1}^{n} log(1 + ξ * (y_i / σ))

 

En dérivant cette équation par rapport à ξ à σ , on obtient les valeurs estimées des paramètres ξ et σ, qui maximisent la vraisemblance des données. Ces paramètres sont ensuite utilisés pour calculer des métriques de risque telles que la Value-at-Risk (VaR) et l’Expected Shortfall (ES).


Écrire commentaire

Commentaires: 0