Likelihood-Methode, eine von R.A.Fisher entwickelte Methode zur Konstruktion von Punktschätzungen für Verteilungsparameter.
Sei X eine Zufallsgröße, deren Wahrscheinlichkeitsverteilung bis auf k unbekannte reelle Parameter γ1, …, γk bekannt ist. Gesucht sind Punktschätzungen für die Paramter γ1, …, γk. Grundlage der Maximum-Likelihood-Methode bildet die sogenannte Likelihood-Funktion. Ist x1, …, xn eine konkrete Stichprobe von X, und X eine diskrete bzw. stetige Zufallsgröße mit den Einzelwahrscheinlichkeiten P(X = xi; γ1, …, γk), i = 1, …, k, bzw. der Dichtefunktion fX(x; γ1, …, γk), dann wird die Funktion \begin{eqnarray}\begin{array}{ll}L({x}_{1},\ldots, {x}_{n};{\gamma }_{1},\ldots, {\gamma }_{k})= & \\ \displaystyle \prod _{i=1}^{n}P(X={x}_{i};{\gamma }_{1},\ldots, {\gamma }_{k})\end{array}\end{eqnarray} bzw. \begin{eqnarray}\begin{array}{cc}L({x}_{1},\ldots, {x}_{n};{\gamma }_{1},\ldots, {\gamma }_{k})=\displaystyle \prod _{i=1}^{n}f({x}_{i};{\gamma }_{1},\ldots, {\gamma }_{k})\end{array}\end{eqnarray} als Likelihood-Funktion bezeichnet. Die Likelihood-Funktion L(x1, …, xn; γ1, …, γk) ist für jede konkrete Stichprobe eine Funktion der unbekannten Parameter γ1, …, γk. Das Prinzip der Maxi- mum-Likelihood-Methode besteht darin, als Punktschätzwert \({\hat{\gamma }}_{i}\) für γi, i = 1, …, k, denjenigen Wert zu ermitteln, für den die Likelihood-Funktion ein Maximum annimmt. Im diskreten Fall heißt das zum Beispiel, unter allen möglichen Punktschätzwerten denjenigen auszuwählen, für den das Ereignis X1 = x1, …, Xn = xn die größte Wahrscheinlichkeit besitzt. Die Lösung \({\hat{\gamma }}_{i}\), i = 1, …, k, des Extremwertproblems \begin{eqnarray}\begin{array}{cc}\mathop{\sup }\limits_{({\gamma }_{1},\ldots, {\gamma }_{k})\in {{\mathbb{R}}}^{k}}L({x}_{1},\ldots, {x}_{n};{\gamma }_{1},\ldots, {\gamma }_{k})\end{array}\end{eqnarray} heißt Maximum-Likelihood-Schätzung oder kurz Likelihood-Schätzung für γi, i = 1, …, k. Unter der Voraussetzung der Differenzierbarkeit der Likelihood-Funktion ermittelt man die Maximum- Likelihood-Schätzungen mit Hilfe der notwendigen Bedingung für ein relatives Maximum: \begin{eqnarray}\begin{array}{cc}\frac{\partial L}{\partial {\gamma }_{i}}=0,\quad i=1,\ldots, k.\end{array}\end{eqnarray}
Oft ist es günstiger, den natürlichen Logarithmus der Likelihoodfunktion zu bilden und von den Gleichungen \begin{eqnarray}\begin{array}{cc}\frac{\partial \mathrm{ln}L}{\partial {\gamma }_{i}}=0,\quad i=1,\ldots, k\end{array}\end{eqnarray} anstelle von (4) auszugehen. Die Gleichungen (4) bzw. (5) werden als Maximum-Likelihood-Gleichungen bezeichnet. Die Maximum-Likelihood-Methode liefert unter bestimmten Bedingungen konsistente, wenigstens asymptotisch erwartungstreue und asymptotisch effiziente Punktschätzungen für γ1, …, γk. Darüber hinaus ist eine Maximum-Likelihood-Schätzung eine hinreichende Schätzfunktion (suffiziente Statistik). Die Maximum-Likelihood-Methode steht in engem Zusammenhang mit der Methode der kleinsten Quadrate.
Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.