تصور کنید روزی از خواب بلند میشوید و احساس کسالت میکنید. به پزشک میروید و او از شما آزمایشهای مختلفی میگیرد. مشخص میشود نتیجه آزمایش شما برای یک بیماری نادر مثبت شده است. بیماری نادری که احتمال مبتلا شدن به آن، ۱ در هر ۱۰۰ هزار نفر است. بیماری که بسیار بد است و عوارض وخیمی برای شما دارد.
بنابراین از پزشک میپرسید که چقدر مطمئن است که شما مبتلا به این بیماری شدید. او پاسخ میدهد که دقت این آزمایش ۹۵ درصد است. یعنی اگر فرد دارای بیماری باشد، با احتمال ۹۵ درصد او را بیمار تشخیص میدهد؛ پس اگر بیمار باشد، با احتمال ۵ درصد او را بهاشتباه سالم تشخیص میدهد. همچنین او میگوید اگر فرد بیمار نباشد، با احتمال ۰٫۰۰۱ او را بیمار تشخیص میدهد. این احتمال خطای مثبت کاذب (False Positive) نام دارد.
پاسخ او شما را ناامیدتر میکند. چقدر احتمال دارد که شما مبتلا به این بیماری شده باشید؟ بیشتر افراد شاید بگویند ۹۵ درصد احتمال دارد، چراکه دقت این آزمایش ۹۵ درصد است. اما این پاسخ اشتباه است. شما به قضیه بیز نیاز دارید تا پاسخ این پرسش را بدهید.
قضیه بیز احتمال شرطی درست بودن یک فرضیه () بهشرط بروز یک رخداد () را بیان میکند؛ یعنی احتمال :
برای برآورد این احتمال نیاز است یک احتمال اولیه درباره اینکه چقدر فرضیه درست است، داشته باشید. به این احتمال ، احتمال پیشین (Prior Probability) گفته میشود. احتمال ، احتمال نادرست بودن فرضیه است. احتمال شرطی بیان میکند اگر فرضیه درست باشد، چقدر احتمال دارد شاهد بروز رخداد () باشید. در مخرج کسر، احتمال بروز رخداد را میتوان ترکیبی از دو احتمال نوشت: احتمال حالتی که شاهد بروز رخداد باشیم و فرضیه واقعاً درست باشد و حالتی که رخداد روی داده ولی فرضیه اشتباه است.
در مثال بالا، احتمال پیشین درست بودن فرضیه را میتوان بر اساس همان آمار کلی بیماری (۱ در هر ۱۰۰ هزار) در نظر گرفت. با جایگذاری احتمالات در رابطه بیز داریم:
یعنی اگر نتیجه چنین آزمایشی مثبت باشد، با احتمال ۰٫۹۵ درصد (زیر ۱ درصد) واقعاً فرد مبتلا به بیماری است. این نتیجه بسیار شوکآور و خلاف شهود است. ولی اگر بیشتر به آن فکر کنیم، این نتیجه قابلقبول به نظر میرسد.
از هر ۱۰۰ هزار نفر یک نفر به بیماری مبتلا است و آزمایش ۹۵ درصد آنان را درست تشخیص میدهد. پس میتوان گفت در هر ۱۰۰ هزار نفر آزمایش تقریباً بهدرستی آن یک نفر را تشخیص میدهد. ولی آزمایش از بین ۹۹۹۹۹ نفر باقی مانده، نزدیک به ۱۰۰ نفر دیگر را نیز مبتلا به بیماری تشخیص میدهد (۰٫۰۰۱ × ۹۹۹۹۹). پس وقتی نتیجه آزمایش شما مثبت شده، شما یکی از آن ۱۰۱ نفری هستید که مبتلا به بیماری شناخته شدید (۱۰۰ نفر سالم بهعلاوه یک نفر مبتلا). از این ۱۰۱ نفر، تنها یک نفر مبتلا به بیماری است. پس احتمال آنکه شما آن یک نفر باشید ۱ تقسیمبر ۱۰۱، چیزی در حدود ۱ درصد است.
به احتمال شرطی احتمال پسین (Posterior Probability) میگویند؛ که نشان میدهد احتمال درستی فرضیه اولیه پس از دیدن شواهد جدید چقدر است. کارکرد اصلی قضیه بیز بهروز کردن باورمان است. بنابراین میتوان با به دست آوردن شواهد جدید، قضیه بیز را برای بهروز کردن احتمال درست بودن فرضیهمان بکار ببریم. برای مثال فرض کنید که شما مجدداً به پزشک دیگری مراجعه میکنید و دوباره آزمایش را در یک آزمایشگاه دیگر تکرار میکنید و این بار هم نتیجه آزمایش مثبت میشود.
این بار احتمال پیشین، ۰٫۹۵ درصد است. میتوان دوباره از قاعده بیز برای بهروزرسانی احتمال بیمار بودن بهشرط آنکه نتیجه آزمایش مثبت باشد، استفاده کرد:
احتمال جدید بر اساس مثبت بودن دو آزمایش، ۹۰ درصد میشود. این نتیجه منطقی است. این شانس بسیار پایین است که نتیجه دو آزمایش مستقل از هم تنها بر اساس تصادف مثبت شده باشد.
دلالتهای قضیه بیز در تصمیمگیری چیست؟
قضیه بیز به ما کمک میکند که بر اساس شواهد جدید، باور اولیهمان را نسبت بهدرستی یک فرضیه بهروز کنیم ولی چیزی درباره اینکه آن باور اولیه از کجا میآید نمیگوید. ممکن است افرادی درباره درستی یک فرضیه ۱۰۰ درصد مطمئن باشند یا کاملاً مطمئن باشند که آن فرضیه غلط است. برای چنین افرادی احتمال پیشین یک یا صفر است. درنتیجه طبق قضیه بیز با آمدن شواهد جدید، هیچ بهروزرسانی در احتمالات پیشین رخ نخواهد داد. به عبارت سادهتر هیچچیزی ذهن چنین افرادی را تغییر نمیدهد.
چنانکه مارک تواین (Mark Twain) میگوید: “چیزهایی که نمیدانید، شما را به دردسر نمیاندازند، بلکه چیزهایی که درباره آنها مطمئن هستید، برای شما مشکل درست میکنند”. چراکه درباره چیزهایی که ۱۰۰ درصد مطمئن هستیم، دیدن شواهد جدید ما را به شک نمیاندازد و ما همچنان به باور اولیهمان اتکا داریم.
پیامی که قضیه بیز برای من دارد این است که هیچگاه تصور نکنم چیزی ۱۰۰ درصد درست یا ۱۰۰ درصد غلط است. رویکردهای دادهمحور برای حل مسئله دقیقاً بر همین مبنا هستند. اینکه شما میتوانید صرفنظر از آنکه چه کسی چه فرضیهای مطرح میکند، آن را بر اساس شواهد دادهمحور، بررسی کنید. چرخه روشهای دادهمحور با یک تحقیق به پایان نمیرسد بلکه دائماً تکرار میشود و با هر تکرار ما به درک جدیدی از مسئله میرسیم ضمن آنکه پرسشهای جدیدی هم مطرح میشود. حفظ روحیه پرسشگری و یادگیری، نپذیرفتن سریع پاسخها، استدلال مبتنی بر شواهد و تکرار چرخه سعی و خطا برای درک پدیدهها در مرکز رویکرد دادهمحور قرار دارد.
منابع:
Stone, J. V. (2013). “Bayes’ Rule with R: A Tutorial Introduction to Bayesian Analysis”, Sebtel Press