Սթայնի պարադոքսը

1961 թվականին Ջեյմսը և Սթայնը հրատարակեցին « Estimation with Quadratic Loss » աշխատությունը: Վերցրեք նորմալ բաշխված տվյալներ անհայտ \(\mu\) միջինով և \(1\) շեղումով: Եթե ​​դուք այժմ ընտրում եք պատահական \(x\) արժեք այս տվյալներից և պետք է գնահատեք \(\mu\) միջինը դրա հիման վրա, ապա ինտուիտիվ \(x\)\(\mu\) )-ի ողջամիտ գնահատական ​​է: (քանի որ առկա է նորմալ բաշխում, պատահականորեն ընտրված \(x\) -ը հավանաբար մոտ է \(\mu\) -ին):


Այժմ փորձը կրկնվում է. այս անգամ երեք անկախ, նորից նորմալ բաշխված տվյալների հավաքածուներով, որոնցից յուրաքանչյուրը \(1\) և միջին արժեքներով \(\mu_1\) , \(\mu_2\) , \(\mu_3\) ) \(\mu_3\) . Երեք պատահական \(x_1\) , \(x_2\) և \(x_3\) արժեքներ ստանալուց հետո մեկ գնահատում է (նույն ընթացակարգով) \(\mu_1=x_1\) , \(\mu_2=x_2\) և \(\mu_3=x_3\) .

Ջեյմսի և Սթայնի զարմանալի արդյունքն այն է, որ ավելի լավ գնահատական ​​կա \( \left( \mu_1, \mu_2, \mu_3 \right) \) (այսինքն՝ երեք անկախ տվյալների հավաքածուների համակցությունը ), քան \( \left( x_1, x_2, x_3 \right) \) . «Ջեյմս Սթայն գնահատողը» ուրեմն:

$$ \begin{pmatrix}\mu_1\\\mu_2\\\mu_3\end{pmatrix} = \left( 1-\frac{1}{x_1^2+x_2^2+x_3^2} \right) \begin{pmatrix}x_1\\x_2\\x_3\end{pmatrix} \neq \begin{pmatrix}x_1\\x_2\\x_3\end{pmatrix} $$

Այս գնահատիչի միջին քառակուսի շեղումը միշտ փոքր է սովորական գնահատողի միջին քառակուսի շեղումից \( E \left[ \left|| X - \mu \right||^2 \right] \) սովորական գնահատողի միջին քառակուսի շեղումից:

Զարմանալի է և, թերևս, պարադոքսալ, որ Ջեյմս-Սթայն գնահատիչը սովորական գնահատիչը (նվազող գործոնով) տեղափոխում է սկզբնաղբյուրը և այդպիսով ավելի լավ արդյունք է տալիս դեպքերի մեծ մասում: Սա վերաբերում է \( \geq 3 \) չափերին, բայց ոչ երկչափի դեպքում։

Գեղեցիկ երկրաչափական բացատրություն, թե ինչու է այս աշխատանքը, տրամադրված է Brown & Zao- ի կողմից: Նկատի ունեցեք, որ դա չի նշանակում, որ դուք ունեք ավելի լավ գնահատական ​​յուրաքանչյուր տվյալների բազայի համար, դուք պարզապես ավելի լավ գնահատական ​​ունեք՝ ավելի փոքր համակցված ռիսկով:

Վերադառնալ