នៅឆ្នាំ 1961 James និង Stein បានបោះពុម្ភផ្សាយក្រដាស Estimation with Quadratic Loss ។ យកទិន្នន័យដែលបានចែកចាយជាធម្មតាជាមួយនឹងមធ្យោបាយមិនស្គាល់ \(\mu\) និងវ៉ារ្យង់ \(1\) ។ ប្រសិនបើឥឡូវនេះអ្នកជ្រើសរើសតម្លៃចៃដន្យ \(x\) ពីទិន្នន័យនេះហើយត្រូវប៉ាន់ប្រមាណតម្លៃមធ្យម \(\mu\) ដោយផ្អែកលើនេះ វិចារណញាណ \(x\) គឺជាការប៉ាន់ប្រមាណសមហេតុផលសម្រាប់ \(\mu\) (ចាប់តាំងពីការចែកចាយធម្មតាមានវត្តមាន ការជ្រើសរើសដោយចៃដន្យ \(x\) ប្រហែលជានៅជិត \(\mu\) ) ។
ឥឡូវនេះការពិសោធន៍ត្រូវបានធ្វើម្តងទៀត - លើកនេះដោយឯករាជ្យចំនួនបី ជាធម្មតាទិន្នន័យចែកចាយម្តងទៀតកំណត់នីមួយៗជាមួយភាពខុសគ្នា \(1\) និងតម្លៃមធ្យម \(\mu_1\) , \(\mu_2\) , \(\mu_3\) ។ បន្ទាប់ពីទទួលបានតម្លៃចៃដន្យចំនួនបី \(x_1\) , \(x_2\) និង \(x_3\) ការប៉ាន់ប្រមាណមួយ (ដោយប្រើនីតិវិធីដូចគ្នា) \(\mu_1=x_1\) , \(\mu_2=x_2\) និង \(\mu_3=x_3\) ។
លទ្ធផលដ៏គួរឱ្យភ្ញាក់ផ្អើលរបស់ James និង Stein គឺថាមានការប៉ាន់ស្មានប្រសើរជាងសម្រាប់ \( \left( \mu_1, \mu_2, \mu_3 \right) \) (ពោលគឺការ រួមបញ្ចូលគ្នា នៃសំណុំទិន្នន័យឯករាជ្យទាំងបី) ជាង \( \left( x_1, x_2, x_3 \right) \) ។ "អ្នកប៉ាន់ស្មាន James Stein" គឺនៅពេលនោះ។:
$$ \begin{pmatrix}\mu_1\\\mu_2\\\mu_3\end{pmatrix} = \left( 1-\frac{1}{x_1^2+x_2^2+x_3^2} \right) \begin{pmatrix}x_1\\x_2\\x_3\end{pmatrix} \neq \begin{pmatrix}x_1\\x_2\\x_3\end{pmatrix} $$
គម្លាតមធ្យមនៃការប៉ាន់ប្រមាណនេះតែងតែតូចជាងគម្លាតការេមធ្យម \( E \left[ \left|| X - \mu \right||^2 \right] \) នៃការប៉ាន់ស្មានធម្មតា។
វាជាការគួរឱ្យភ្ញាក់ផ្អើលនិងប្រហែលជាផ្ទុយស្រឡះដែលអ្នកប៉ាន់ស្មាន James-Stein ផ្លាស់ប្តូរការប៉ាន់ប្រមាណធម្មតា (ដោយកត្តាបង្រួម) ឆ្ពោះទៅរកប្រភពដើមហើយដូច្នេះផ្តល់លទ្ធផលប្រសើរជាងក្នុងករណីភាគច្រើន។ នេះអនុវត្តចំពោះវិមាត្រ \( \geq 3 \) ប៉ុន្តែមិនមែននៅក្នុងករណីពីរវិមាត្រទេ។
ការពន្យល់ធរណីមាត្រដ៏ល្អអំពីមូលហេតុដែលស្នាដៃនេះត្រូវបានផ្តល់ដោយ Brown & Zao ។ ចំណាំថានេះ មិន មានន័យថាអ្នកមានការប៉ាន់ប្រមាណប្រសើរជាងសម្រាប់រាល់សំណុំទិន្នន័យ តែមួយ នោះទេ - អ្នកគ្រាន់តែមានការប៉ាន់ស្មានកាន់តែប្រសើរជាមួយនឹងហានិភ័យ រួមបញ្ចូលគ្នា តូចជាង។