| Type | |
|---|
| Inventeurs | |
|---|
| Nommé en référence à | |
|---|
| Formule |
 |
|---|
En statistique, selon le lemme de Neyman-Pearson, lorsque l'on veut effectuer un test d'hypothèse entre deux hypothèses H0 : θ = θ0 et H1 : θ = θ1, pour un échantillon
, alors le test du rapport de vraisemblance, qui rejette H0 en faveur de H1 lorsque
, où
est tel que
, est le test le plus puissant de niveau
.
Ce lemme est nommé d'après Jerzy Neyman et Egon Sharpe Pearson dans un article publié en 1933[1].
En pratique, la plupart du temps, le rapport de vraisemblance lui-même n'est pas explicitement utilisé dans le test. En effet, le test du rapport de vraisemblance ci-dessus est souvent équivalent à un test de la forme
pour une statistique
plus simple, et le test est effectué sous cette forme-ci.
Démonstration
Théorème : La région de rejet
optimale est définie par l'ensemble des points
tels que

où la constante
est telle que
. À noter qu'on a les relations suivantes :
- ;\theta _{0})\ d\mathbf {x} }

- ;\theta _{1})\ d\mathbf {x} }

où
est l'échantillon.
Démonstration :
Montrons tout d'abord que lorsque
est une densité bornée, il existe toujours une constante
telle que
.
- En effet, lorsque
, cette probabilité vaut 1. D'autre part, cette probabilité décroit monotonément et continument vers zéro, lorsque
. Par conséquent, il doit exister une valeur finie de
, appelée
, qui satisfait l'égalité,
.
- Désignons alors par
, le sous-ensemble de
suivant,
,
- et soit
une autre partie de
, telle que
.
Montrons que
:
;\theta _{1})\ d\mathbf {x} -\int _{R}\!{\mathcal {L}}(\mathbf {x} ;\theta _{1})\ d\mathbf {x} \\&=\int _{R_{0}\backslash R}\!{\mathcal {L}}(\mathbf {x} ;\theta _{1})\ d\mathbf {x} -\int _{R\backslash R_{0}}\!{\mathcal {L}}(\mathbf {x} ;\theta _{1})\ d\mathbf {x} \end{aligned}}}

;\theta _{1})\geq k_{\alpha }{\mathcal {L}}(\mathbf {x} ;\theta _{0}){\text{ sur }}R_{0}{\text{ et }}{\mathcal {L}}(\mathbf {x} ;\theta _{1})<k_{\alpha }{\mathcal {L}}(\mathbf {x} ;\theta _{0}){\text{ en dehors}}}

;\theta _{0})\ d\mathbf {x} -\int _{R\backslash R_{0}}\!{\mathcal {L}}(\mathbf {x} ;\theta _{0})\ d\mathbf {x} )\\&\geq k_{\alpha }(\int _{R_{0}}\!{\mathcal {L}}(\mathbf {x} ;\theta _{0})\ d\mathbf {x} -\int _{R}\!{\mathcal {L}}(\mathbf {x} ;\theta _{0})\ d\mathbf {x} )\\\end{aligned}}}

La première intégrale vaut
par construction, la deuxième est majorée par
, on obtient:
ce qui conclut.
Voir aussi
Portail des probabilités et de la statistique