Në vitin 1961 James dhe Stein publikuan letrën Vlerësimi me Humbje kuadratike . Merrni të dhënat e shpërndara normalisht me një mesatare të panjohur \(\mu\) dhe variancë \(1\) . Nëse tani zgjidhni një vlerë të rastësishme \(x\) nga këto të dhëna dhe duhet të vlerësoni mesataren \(\mu\) në bazë të kësaj, në mënyrë intuitive \(x\) është një vlerësim i arsyeshëm për \(\mu\) (meqenëse një shpërndarje normale është e pranishme, \(x\) e zgjedhur rastësisht është ndoshta afër \(\mu\) ).
Tani eksperimenti përsëritet - këtë herë me tre grupe të dhënash të pavarura, përsëri të shpërndara normalisht secila me variancë \(1\) dhe vlerat mesatare \(\mu_1\) , \(\mu_2\) , \(\mu_3\) . Pas marrjes së tre vlerave të rastësishme \(x_1\) , \(x_2\) dhe \(x_3\) , njëri vlerëson (duke përdorur të njëjtën procedurë) \(\mu_1=x_1\) , \(\mu_2=x_2\) dhe \(\mu_3=x_3\) .
Rezultati befasues i James dhe Stein është se ka një vlerësim më të mirë për \( \left( \mu_1, \mu_2, \mu_3 \right) \) (d.m.th. kombinimi i tre grupeve të pavarura të të dhënave) sesa \( \left( x_1, x_2, x_3 \right) \) . "Vlerësuesi James Stein" është atëherë:
$$ \begin{pmatrix}\mu_1\\\mu_2\\\mu_3\end{pmatrix} = \left( 1-\frac{1}{x_1^2+x_2^2+x_3^2} \right) \begin{pmatrix}x_1\\x_2\\x_3\end{pmatrix} \neq \begin{pmatrix}x_1\\x_2\\x_3\end{pmatrix} $$
Devijimi mesatar katror i këtij vlerësuesi është gjithmonë më i vogël se devijimi mesatar katror \( E \left[ \left|| X - \mu \right||^2 \right] \) i vlerësuesit të zakonshëm.
Është befasuese dhe ndoshta paradoksale që vlerësuesi i James-Stein e zhvendos vlerësuesin e zakonshëm (me një faktor tkurrës) drejt origjinës dhe kështu jep një rezultat më të mirë në shumicën e rasteve. Kjo vlen për dimensionet \( \geq 3 \) , por jo në rastin dydimensional.
Një shpjegim i bukur gjeometrik se pse kjo funksionon është dhënë nga Brown & Zao . Vini re se kjo nuk do të thotë që ju keni një vlerësim më të mirë për çdo grup të dhënash të vetme - ju thjesht keni një vlerësim më të mirë me një rrezik më të vogël të kombinuar .