Paradoks Simpsona to jedno z łatwo zrozumiałych, a jednocześnie zadziwiających zjawisk w statystyce. Występuje, gdy grupy danych wykazują określony trend, ale trend ten jest odwracany, gdy grupy są łączone. Na prostym przykładzie paradoks można zrozumieć od razu.
Rozważamy dwa rozłączne zbiory \(\#1\) i \(\#2\) a także \(G = \#1 \cup \#2\) i testujemy współczynnik sukcesu \(A\) oraz w ramach tych zestawów \(B\):
\(A\) | \(B\) | \(win\) | |
\(\#1\) | \(\frac{1}{1}=100\%\) | \(\frac{3}{4}=75\%\) | \(A\) |
\(\#2\) | \(\frac{2}{5}=40\%\) | \(\frac{1}{3}=33\%\) | \(A\) |
\(\#1 \cup \#2\) | \(\frac{3}{6}=50\%\) | \(\frac{4}{7}=57\%\) | \(B\) |
Okazuje się, że \(A\) jest bardziej skuteczny niż \(B\) w \(\#1\) jak również \(\#2\) \(B\) , ale o dziwo w \(G\) \(B\) bardziej skuteczny niż \(A\) . Ten przykład jest również jednym z tych z najmniejszym zestawem \(G\) z \(|G|=13\) . Nie ma \(G\) z \(|G|<13\) (dowód brutalną siłą).
Teraz dzielimy zbiór \(G\) zamiast \(2\) na \(3\) rozłączne podzbiory \(\#1, \, \#2, \, \#3\) z \(\#1 \cup \#2 \cup \#3 = G\) . Następnie tworzymy ekscytujący przypadek, w którym dla każdego elementu \(e_k \neq \emptyset\) zbioru potęg \(P(G)\) z \(G\) obowiązuje: $$\forall e_1, e_2 \in P(G): |e_1| \neq |e_2| \Rightarrow win(e_1) \neq win(e_2) \land |e_1| = |e_2| \Rightarrow win(e_1) = win(e_2)$$ $$\forall e_1, e_2 \in P(G): |e_1| \neq |e_2| \Rightarrow win(e_1) \neq win(e_2) \land |e_1| = |e_2| \Rightarrow win(e_1) = win(e_2)$$
Po kilku godzinach brutalnej siły na standardowym Core i7 można znaleźć następujący przykład:
\(A\) | \(B\) | \(C\) | \(win\) | |
\(\#1\) | \(\frac{6}{7}=85,71\%\) | \(\frac{12}{15}=80,00\%\) | \(\frac{22}{37}=59,46\%\) | \(A\) |
\(\#2\) | \(\frac{95}{167}=56,89\%\) | \(\frac{48}{88}=54,55\%\) | \(\frac{38}{67}=56,72\%\) | \(A\) |
\(\#3\) | \(\frac{48}{144}=33,33\%\) | \(\frac{16}{50}=32,00\%\) | \(\frac{2}{20}=10,00\%\) | \(A\) |
\(\#1 \cup \#2\) | \(\frac{101}{174}=58,05\%\) | \(\frac{60}{103}=58,25\%\) | \(\frac{60}{104}=57,69\%\) | \(B\) |
\(\#1 \cup \#3\) | \(\frac{54}{151}=35,76\%\) | \(\frac{28}{65}=43,08\%\) | \(\frac{24}{57}=42,11\%\) | \(B\) |
\(\#2 \cup \#3\) | \(\frac{143}{311}=45,98\%\) | \(\frac{64}{138}=46,38\%\) | \(\frac{40}{87}=45,98\%\) | \(B\) |
\(\#1 \cup \#2\cup \#3\) | \(\frac{149}{318}=46,86\%\) | \(\frac{76}{153}=49,67\%\) | \(\frac{62}{124}=50,00\%\) | \(C\) |
W ten sposób (zakładając dowolnie długi czas obliczeniowy) można znaleźć przykłady \(n\) rozłącznych podzbiorów o tym samym zachowaniu. Jeśli takie przypadki zdarzają się w rzeczywistości, wnioski oparte na rekomendacji sukcesu grupy są zarówno sensowne, jak i bezcelowe.
W tym miejscu polecamy również ekscytującą lekturę Przyczynowość: modele, rozumowanie i wnioskowanie autorstwa Judei Pearl .