En statistiques, le test du rapport de vraisemblance est un test statistique qui permet de tester un modèle paramétrique contraint contre un non contraint.
Si on appelle le vecteur des paramètres estimés par la méthode du maximum de vraisemblance, on considère un test du type[1] :
contre
On définit alors l'estimateur du maximum de vraisemblance et l'estimateur du maximum de vraisemblance sous . On définit enfin la statistique du test :
On sait que sous l'hypothèse nulle, la statistique du test du rapport de vraisemblance suit une loi du avec un nombre de degrés de liberté égal au nombre de contraintes imposées par l'hypothèse nulle (p) :
Par conséquent, on rejette le test au niveau lorsque la statistique de test est supérieure au quantile d'ordre de la loi du à p degrés de libertés.
On peut donc définir la valeur limite (p-value)[note 1] de ce test :
Notes et références
Notes
- ↑ On rappelle que la p-value est définie comme la plus petite valeur du risque de première espèce () pour laquelle on rejette le test (Wasserman 2004, p. 156)
Références
Bibliographie
|
|
Tests de comparaison d'une seule variable |
Pour un échantillon |
|
Pour deux échantillons |
|
Pour 3 échantillons ou plus |
|
|
Tests de comparaison de deux variables |
Deux variables quantitatives : Tests de corrélation |
|
Deux variables qualitatives |
|
Plus de deux variables |
|
|
Tests d'adéquation à une loi |
|
Tests d'appartenance à une famille de lois |
|
Autres tests |
|
|