Stein paradoksu

1961'de James ve Stein , Kuadratik Kayıplı Tahmin makalesini yayınladılar. Bilinmeyen ortalama \(\mu\) ve varyans \(1\) ile normal olarak dağıtılan verileri alın. Şimdi bu verilerden rastgele bir \(x\) değeri seçerseniz ve buna dayanarak ortalama \(\mu\) tahmin etmeniz gerekiyorsa, \(x\) sezgisel olarak \(\mu\) için makul bir tahmindir. (normal bir dağılım olduğundan, rastgele seçilen \(x\) muhtemelen \(\mu\) a yakındır).


Şimdi deney tekrarlanır - bu sefer her biri \(1\) varyansına ve \(\mu_1\) , \(\mu_2\) , \(\mu_3\) ortalama değerlerine sahip üç bağımsız, yine normal dağılımlı veri seti ile tekrarlanır. \(\mu_3\) . Üç rastgele değer \(x_1\) , \(x_2\) ve \(x_3\) elde edildikten sonra, biri (aynı prosedürü kullanarak) \(\mu_1=x_1\) , \(\mu_2=x_2\) ve \(\mu_3=x_3\) .

James ve Stein'ın şaşırtıcı sonucu, \( \left( \mu_1, \mu_2, \mu_3 \right) \) (yani üç bağımsız veri kümesinin birleşimi ) için \( \left( x_1, x_2, x_3 \right) \) . "James Stein tahmincisi" o zaman:

$$ \begin{pmatrix}\mu_1\\\mu_2\\\mu_3\end{pmatrix} = \left( 1-\frac{1}{x_1^2+x_2^2+x_3^2} \right) \begin{pmatrix}x_1\\x_2\\x_3\end{pmatrix} \neq \begin{pmatrix}x_1\\x_2\\x_3\end{pmatrix} $$

Bu tahmin edicinin ortalama kare sapması, her zaman olağan tahmin edicinin ortalama kare sapmasından \( E \left[ \left|| X - \mu \right||^2 \right] \) daha küçüktür.

James-Stein tahmin edicisinin olağan tahmin ediciyi (bir küçültme faktörü ile) orijine doğru kaydırması ve böylece çoğu durumda daha iyi bir sonuç vermesi şaşırtıcı ve belki de paradoksaldır. Bu, \( \geq 3 \) boyutları için geçerlidir, ancak iki boyutlu durumda geçerli değildir.

Bunun neden işe yaradığına dair güzel bir geometrik açıklama Brown & Zao tarafından sağlanmıştır. Bunun, her bir veri kümesi için daha iyi bir tahmine sahip olduğunuz anlamına gelmediğini unutmayın; yalnızca daha küçük bir birleşik riskle daha iyi bir tahmine sahipsiniz.

Geri