स्टीन का विरोधाभास

1961 में जेम्स और स्टीन ने पेपर एस्टीमेशन विथ क्वाड्रैटिक लॉस प्रकाशित किया। एक अज्ञात माध्य \(\mu\) और प्रसरण \(1\) के साथ सामान्य रूप से वितरित डेटा लें। यदि आप अब इस डेटा से एक यादृच्छिक मान \(x\) चुनते हैं और इसके आधार पर माध्य \(\mu\) का अनुमान लगाना है, तो सहज रूप से \(x\) \(\mu\) के लिए एक उचित अनुमान है (चूंकि एक सामान्य वितरण मौजूद है, यादृच्छिक रूप से चुना गया \(x\) शायद \(\mu\) के पास है)।


अब प्रयोग दोहराया जाता है - इस बार तीन स्वतंत्र, फिर से सामान्य रूप से वितरित डेटा सेट प्रत्येक के साथ विचरण \(1\) और औसत मान \(\mu_1\) , \(\mu_2\) , \(\mu_3\) . तीन यादृच्छिक मान प्राप्त करने के बाद \(x_1\) , \(x_2\) और \(x_3\) , एक अनुमान (उसी प्रक्रिया का उपयोग करके) \(\mu_1=x_1\) , \(\mu_2=x_2\) और \(\mu_3=x_3\)

जेम्स और स्टीन का आश्चर्यजनक परिणाम यह है कि \( \left( \mu_1, \mu_2, \mu_3 \right) \) के लिए एक बेहतर अनुमान है (यानी तीन स्वतंत्र डेटा सेट का संयोजन ) \( \left( x_1, x_2, x_3 \right) \) . "जेम्स स्टीन अनुमानक" तब है:

$$ \begin{pmatrix}\mu_1\\\mu_2\\\mu_3\end{pmatrix} = \left( 1-\frac{1}{x_1^2+x_2^2+x_3^2} \right) \begin{pmatrix}x_1\\x_2\\x_3\end{pmatrix} \neq \begin{pmatrix}x_1\\x_2\\x_3\end{pmatrix} $$

इस अनुमानक का औसत वर्ग विचलन तब सामान्य अनुमानक के औसत वर्ग विचलन \( E \left[ \left|| X - \mu \right||^2 \right] \) से हमेशा छोटा होता है।

यह आश्चर्यजनक और शायद विरोधाभासी है कि जेम्स-स्टीन अनुमानक सामान्य अनुमानक (एक सिकुड़ते कारक द्वारा) को उत्पत्ति की ओर स्थानांतरित करता है और इस प्रकार अधिकांश मामलों में बेहतर परिणाम देता है। यह आयामों \( \geq 3 \) पर लागू होता है, लेकिन द्वि-आयामी मामले में नहीं।

ब्राउन एंड ज़ाओ द्वारा यह काम क्यों प्रदान किया गया है, इसकी एक अच्छी ज्यामितीय व्याख्या। ध्यान दें कि इसका मतलब यह नहीं है कि आपके पास प्रत्येक डेटासेट के लिए बेहतर अनुमान है - आपके पास छोटे संयुक्त जोखिम के साथ बेहतर अनुमान है।

वापस