Ing taun 1961 James lan Stein nerbitake makalah Estimation with Quadratic Loss . Njupuk data sing disebarake normal kanthi rata-rata \(\mu\) lan varians \(1\) sing ora dingerteni. Yen saiki sampeyan milih nilai acak \(x\) saka data iki lan kudu ngira rata-rata \(\mu\) adhedhasar iki, kanthi intuisi \(x\) minangka perkiraan sing cukup kanggo \(\mu\) (amarga ana distribusi normal, sing dipilih kanthi acak \(x\) mbokmenawa cedhak \(\mu\) ).
Saiki eksperimen kasebut diulang maneh - wektu iki kanthi telung set data sing disebarake maneh kanthi normal kanthi variasi \(1\) lan nilai rata-rata \(\mu_1\) , \(\mu_2\) , \(\mu_3\) . Sawise entuk telung nilai acak \(x_1\) , \(x_2\) lan \(x_3\) , siji ngira (nggunakake prosedur sing padha) \(\mu_1=x_1\) , \(\mu_2=x_2\) lan \(\mu_3=x_3\) .
Asil ngagetne James lan Stein ana prakiraan sing luwih apik kanggo \( \left( \mu_1, \mu_2, \mu_3 \right) \) (yaiku kombinasi saka telung set data independen) tinimbang \( \left( x_1, x_2, x_3 \right) \) . Ing "James Stein estimator" banjur:
$$ \begin{pmatrix}\mu_1\\\mu_2\\\mu_3\end{pmatrix} = \left( 1-\frac{1}{x_1^2+x_2^2+x_3^2} \right) \begin{pmatrix}x_1\\x_2\\x_3\end{pmatrix} \neq \begin{pmatrix}x_1\\x_2\\x_3\end{pmatrix} $$
Panyimpangan kuadrat rata-rata saka estimator iki banjur luwih cilik tinimbang sisihan kuadrat rata-rata \( E \left[ \left|| X - \mu \right||^2 \right] \) saka estimator biasa.
Iku ngageti lan mbok menawa paradoks sing estimator James-Stein mindhah estimator biasanipun (kanthi faktor shrinking) menyang asal lan kanthi mangkono menehi asil sing luwih apik ing mayoritas kasus. Iki ditrapake kanggo dimensi \( \geq 3 \) , nanging ora ing kasus rong dimensi.
Panjelasan geometris sing apik kenapa karya iki diwenehake dening Brown & Zao . Elinga yen iki ora ateges sampeyan duwe perkiraan sing luwih apik kanggo saben set data - sampeyan mung duwe perkiraan sing luwih apik kanthi resiko gabungan sing luwih cilik.