En 1961 James kaj Stein publikigis la paperon Estimation with Quadratic Loss . Prenu normale distribuitajn datumojn kun nekonata meznombro \(\mu\) kaj varianco \(1\) . Se vi nun elektas hazardan valoron \(x\) el ĉi tiuj datumoj kaj devas taksi la meznombre \(\mu\) surbaze de tio, intuicie \(x\) estas racia takso por \(\mu\) (ĉar normala distribuo ĉeestas, la hazarde elektita \(x\) probable estas proksime de \(\mu\) ).
Nun la eksperimento ripetas - ĉi-foje kun tri sendependaj, denove normale distribuitaj datumaj aroj ĉiu kun varianco \(1\) kaj la averaĝaj valoroj \(\mu_1\) , \(\mu_2\) , \(\mu_3\) . \(\mu_3\) . Post akiri tri hazardajn valorojn \(x_1\) , \(x_2\) kaj \(x_3\) , oni taksas (uzante la saman proceduron) \(\mu_1=x_1\) , \(\mu_2=x_2\) kaj \(\mu_3=x_3\) .
La surpriza rezulto de James kaj Stein estas ke ekzistas pli bona takso por \( \left( \mu_1, \mu_2, \mu_3 \right) \) (t.e. la kombinaĵo de la tri sendependaj datumsemoj) ol \( \left( x_1, x_2, x_3 \right) \) . La "James Stein estimator" estas tiam:
$$ \begin{pmatrix}\mu_1\\\mu_2\\\mu_3\end{pmatrix} = \left( 1-\frac{1}{x_1^2+x_2^2+x_3^2} \right) \begin{pmatrix}x_1\\x_2\\x_3\end{pmatrix} \neq \begin{pmatrix}x_1\\x_2\\x_3\end{pmatrix} $$
La averaĝa kvadrata devio de ĉi tiu taksilo estas tiam ĉiam pli malgranda ol la averaĝa kvadrata devio \( E \left[ \left|| X - \mu \right||^2 \right] \) de la kutima taksilo.
Estas surprize kaj eble paradokse, ke la kalkulilo de James-Stein movas la kutiman taksilon (per ŝrumpa faktoro) al la origino kaj tiel donas pli bonan rezulton en la plimulto de kazoj. Ĉi tio validas por dimensioj \( \geq 3 \) , sed ne en la dudimensia kazo.
Bela geometria klarigo pri kial ĉi tio funkcias estas provizita de Brown & Zao . Notu, ke ĉi tio ne signifas, ke vi havas pli bonan takson por ĉiu unuopa datumaro - vi nur havas pli bonan takson kun pli malgranda kombinita risko.