پارادوکس استاین

در سال 1961 جیمز و استین مقاله برآورد با از دست دادن درجه دوم را منتشر کردند. داده های توزیع شده عادی را با میانگین ناشناخته \(\mu\) و واریانس \(1\) بگیرید. اگر اکنون یک مقدار تصادفی \(x\) از این داده ها انتخاب کنید و باید میانگین \(\mu\) را بر اساس آن تخمین بزنید، به طور شهودی \(x\) یک تخمین معقول برای \(\mu\) است. (از آنجایی که توزیع نرمال وجود دارد، انتخاب تصادفی \(x\) احتمالا نزدیک به \(\mu\) است).


اکنون آزمایش تکرار می شود - این بار با سه مجموعه داده مستقل و دوباره به طور معمول توزیع شده هر کدام با واریانس \(1\) و مقادیر میانگین \(\mu_1\) , \(\mu_2\) , \(\mu_3\) . پس از به دست آوردن سه مقدار تصادفی \(x_1\) ، \(x_2\) و \(x_3\) ، یکی تخمین می زند (با استفاده از همان روش) \(\mu_1=x_1\) ، \(\mu_2=x_2\) و \(\mu_3=x_3\) .

نتیجه شگفت انگیز جیمز و استین این است که تخمین بهتری برای \( \left( \mu_1, \mu_2, \mu_3 \right) \) (یعنی ترکیب سه مجموعه داده مستقل) از \( \left( x_1, x_2, x_3 \right) \) . "برآورنده جیمز استاین" است:

$$ \begin{pmatrix}\mu_1\\\mu_2\\\mu_3\end{pmatrix} = \left( 1-\frac{1}{x_1^2+x_2^2+x_3^2} \right) \begin{pmatrix}x_1\\x_2\\x_3\end{pmatrix} \neq \begin{pmatrix}x_1\\x_2\\x_3\end{pmatrix} $$

میانگین انحراف مربع این برآوردگر همیشه کوچکتر از میانگین مربع انحراف \( E \left[ \left|| X - \mu \right||^2 \right] \) برآوردگر معمولی است.

تعجب آور و شاید متناقض است که برآوردگر جیمز-استاین تخمینگر معمولی را (با یک عامل کوچک کننده) به سمت مبدأ تغییر می دهد و بنابراین در اکثر موارد نتیجه بهتری می دهد. این در مورد ابعاد \( \geq 3 \) صدق می کند، اما در مورد دو بعدی نه.

توضیح هندسی خوبی در مورد چرایی این کار توسط Brown & Zao ارائه شده است. توجه داشته باشید که این بدان معنا نیست که شما تخمین بهتری برای هر مجموعه داده دارید - فقط تخمین بهتری با ریسک ترکیبی کمتر دارید.

بازگشت