قضیه بیز (Bayes Theorem) و دلالت‌های آن در عمل چیست؟

تصور کنید روزی از خواب بلند می‌شوید و احساس کسالت می‌کنید. به پزشک می‌روید و او از شما آزمایش‌های مختلفی می‌گیرد. مشخص می‌شود نتیجه آزمایش‌ شما برای یک بیماری نادر مثبت  شده است. بیماری نادری که احتمال مبتلا شدن به آن، ۱ در هر ۱۰۰ هزار نفر است. بیماری که بسیار بد است و عوارض وخیمی برای شما دارد.

بنابراین از پزشک می‌پرسید که چقدر مطمئن است که شما مبتلا به این بیماری شدید. او پاسخ می‌دهد که دقت این آزمایش ۹۵ درصد است. یعنی اگر فرد دارای بیماری باشد، با احتمال ۹۵ درصد او را بیمار تشخیص می‌دهد؛ پس اگر بیمار باشد، با احتمال ۵ درصد او را به‌اشتباه سالم تشخیص می‌دهد. همچنین او می‌گوید اگر فرد بیمار نباشد، با احتمال ۰٫۰۰۱ او را بیمار تشخیص می‌دهد. این احتمال خطای مثبت کاذب (False Positive) نام دارد.

پاسخ او شما را ناامیدتر می‌کند. چقدر احتمال دارد که شما مبتلا به این بیماری شده باشید؟ بیشتر افراد شاید بگویند ۹۵ درصد احتمال دارد، چراکه دقت این آزمایش ۹۵ درصد است. اما این پاسخ اشتباه است. شما به قضیه بیز نیاز دارید تا پاسخ این پرسش را بدهید.

قضیه بیز احتمال شرطی درست بودن یک فرضیه (H) به‌شرط بروز یک رخداد (E) را بیان می‌کند؛ یعنی احتمال P(H|E):

P(H|E) = \frac {P(E|H) \times P(H)} {P(E)}

P(H|E) = \frac {P(E|H) \times P(H)} {P(E|H) \times P(H) + P(E|H^c) \times P(H^c)}

برای برآورد این احتمال نیاز است یک احتمال اولیه درباره این‌که چقدر فرضیه درست است، داشته باشید. به این احتمال P(H)، احتمال پیشین (Prior Probability) گفته می‌شود. احتمال P(H^c)، احتمال نادرست بودن فرضیه است. احتمال شرطی P(E|H) بیان می‌کند اگر فرضیه درست باشد، چقدر احتمال دارد شاهد بروز رخداد (E) باشید. در مخرج کسر، احتمال بروز رخداد P(E) را می‌توان ترکیبی از دو احتمال نوشت: احتمال حالتی که شاهد بروز رخداد باشیم و فرضیه واقعاً درست باشد و حالتی که رخداد روی داده ولی فرضیه اشتباه است.

در مثال بالا، احتمال پیشین درست بودن فرضیه را می‌توان بر اساس همان آمار کلی بیماری (۱ در هر ۱۰۰ هزار) در نظر گرفت. با جایگذاری احتمالات در رابطه بیز داریم:

P(H|E) = \frac {0.95 \times 0.00001} {0.95 \times 0.00001 + 0.001 \times 0.99999} = 0.0095

یعنی اگر نتیجه چنین آزمایشی مثبت باشد، با احتمال ۰٫۹۵ درصد (زیر ۱ درصد) واقعاً فرد مبتلا به بیماری است. این نتیجه بسیار شوک‌آور و خلاف شهود است. ولی اگر بیشتر به آن فکر کنیم، این نتیجه قابل‌قبول به نظر می‌رسد.

از هر ۱۰۰ هزار نفر یک نفر به بیماری مبتلا است و آزمایش ۹۵ درصد آنان را درست تشخیص می‌دهد. پس می‌توان گفت در هر ۱۰۰ هزار نفر آزمایش تقریباً به‌درستی آن یک نفر را تشخیص می‌دهد. ولی آزمایش از بین ۹۹۹۹۹ نفر باقی مانده، نزدیک به ۱۰۰ نفر دیگر را نیز مبتلا به بیماری تشخیص می‌دهد (۰٫۰۰۱ × ۹۹۹۹۹). پس وقتی نتیجه آزمایش شما مثبت شده، شما یکی از آن ۱۰۱ نفری هستید که مبتلا به بیماری شناخته شدید (۱۰۰ نفر سالم به‌علاوه یک نفر مبتلا). از این ۱۰۱ نفر، تنها یک نفر مبتلا به بیماری است. پس احتمال آنکه شما آن یک نفر باشید ۱ تقسیم‌بر ۱۰۱، چیزی در حدود ۱ درصد است.

به ‌احتمال شرطی P(H|E) احتمال پسین (Posterior Probability) می‌گویند؛ که نشان می‌دهد احتمال درستی فرضیه اولیه پس از دیدن شواهد جدید چقدر است. کارکرد اصلی قضیه بیز به‌روز کردن باورمان است. بنابراین می‌توان با به دست آوردن شواهد جدید، قضیه بیز را برای به‌روز کردن احتمال درست بودن فرضیه‌مان بکار ببریم. برای مثال فرض کنید که شما مجدداً به پزشک دیگری مراجعه می‌کنید و دوباره آزمایش را در یک آزمایشگاه دیگر تکرار می‌کنید و این بار هم نتیجه آزمایش مثبت می‌شود.

این بار احتمال پیشین، ۰٫۹۵ درصد است. می‌توان دوباره از قاعده بیز برای به‌روزرسانی احتمال بیمار بودن به‌شرط آنکه نتیجه آزمایش مثبت باشد، استفاده کرد:

P(H|E) = \frac {0.95 \times 0.0095} {0.95 \times 0.0095 + 0.001 \times 0.99999} = 0.90

احتمال جدید بر اساس مثبت بودن دو آزمایش، ۹۰ درصد می‌شود. این نتیجه منطقی است. این شانس بسیار پایین است که نتیجه دو آزمایش مستقل از هم تنها بر اساس تصادف مثبت شده باشد.

دلالت‌های قضیه بیز در تصمیم‌گیری چیست؟

قضیه بیز به ما کمک می‌کند که بر اساس شواهد جدید، باور اولیه‌مان را نسبت به‌درستی یک فرضیه به‌روز کنیم ولی چیزی درباره اینکه آن باور اولیه از کجا می‌آید نمی‌گوید. ممکن است افرادی درباره درستی یک فرضیه ۱۰۰ درصد مطمئن باشند یا کاملاً مطمئن باشند که آن فرضیه غلط است. برای چنین افرادی احتمال پیشین یک یا صفر است. درنتیجه طبق قضیه بیز با آمدن شواهد جدید، هیچ به‌روزرسانی در احتمالات پیشین رخ نخواهد داد. به عبارت ساده‌تر هیچ‌چیزی ذهن چنین افرادی را تغییر نمی‌دهد.

چنان‌که مارک تواین (Mark Twain) می‌گوید: “چیزهایی که نمی‌دانید، شما را به دردسر نمی‌اندازند، بلکه چیزهایی که درباره آن‌ها مطمئن هستید، برای شما مشکل درست می‌کنند”. چراکه درباره چیزهایی که ۱۰۰ درصد مطمئن هستیم، دیدن شواهد جدید ما را به شک نمی‌اندازد و ما همچنان به باور اولیه‌مان اتکا داریم.

پیامی که قضیه بیز برای من دارد این است که هیچ‌گاه تصور نکنم چیزی ۱۰۰ درصد درست یا ۱۰۰ درصد غلط است. رویکردهای داده‌محور برای حل مسئله دقیقاً بر همین مبنا هستند. اینکه شما می‌توانید صرف‌نظر از آنکه چه کسی چه فرضیه‌ای مطرح می‌کند، آن را بر اساس شواهد داده‌محور، بررسی کنید. چرخه روش‌های داده‌محور با یک تحقیق به پایان نمی‌رسد بلکه دائماً تکرار می‌شود و با هر تکرار ما به درک جدیدی از مسئله می‌رسیم ضمن آنکه پرسش‌های جدیدی هم مطرح می‌شود. حفظ روحیه پرسشگری و یادگیری، نپذیرفتن سریع پاسخ‌ها، استدلال مبتنی بر شواهد و تکرار چرخه سعی و خطا برای درک پدیده‌ها در مرکز رویکرد داده‌محور قرار دارد.

منابع:

Stone, J. V. (2013). “Bayes’ Rule with R: A Tutorial Introduction to Bayesian Analysis”, Sebtel Press

 

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *