قانون بیز چیست؟
یکی از قوانین مهم احتمال، قانون احتمال "بیز" است که توسط فردی به نام بیز[1] مطرح شد. قانون طبقه بندی کننده بیز، محتمل ترین کلاس را به یک داده اختصاص میدهند. به این معنا که با استفاده از قانون بیز میتوان احتمال برچسب طبقه یک نمونه از دادهها را تعیین کرد.
قانون بیز:

یعنی اگر B رخ داده باشد، چقدر احتمال دارد تا A نیز رخ دهد.
مزایای استفاده از نایو بیز
Naïve Bayes یکی از معروف ترین روشهای احتمالاتی است. یعنی احتمال تعلق یک نمونه به یک کلاس را تخمین میزند. میزان دقتNaïve Bayes قابل قبول است. Naïve Bayes سرعت بالایی دارد و روش سریعی برای دادههای بزرگ است. روش بیز یک روش افزایشی است. به این معنا که اگر شما داده آموزشی داشتید و قبلا مدلی با آن طراحی کرده باشید ولی در حال حاضر دادههای جدیدی به آن اضافه کنید، با استفاده از روش بیز فقط به آپدیت مدل جدید میپردازیم و نیازی به ساخت مدل جدید و آموزش آن از ابتدا نیست.
Naïve Bayes، مکانیسمی برای استفاده از اطلاعات را در دادههای نمونه برای تخمین احتمال قبلی P(y| x) هر کلاس y با توجه به کلاس x ارائه میدهد. با استفاده از Naïve Bayes می توان به طبقه بندی یا سایر برنامه ها برای تصمیم گیری استفاده کرد.

ارتباط قانون بیز با روش دستهبندی
نایو بیز ، یکی از روشهای طبقه بندی است. Naïve Bayes، الگوریتم یادگیری ساده ای بر اساس قانون بیز است.
برای مثال Bبه دستهای تعلق دارد که برچسب آن برای ما مشخص نیست. B در اینجا مقالهای است که سال انتشار، تعداد استنادات، نام نویسندگان و مجله آن مشخص است ولی حوزه موضوعی آن مشخص نیست و با استفاده از لیبلهای مشخص آن میخواهیم حوزه موضوعی مقاله را پیش بینی کنیم. در اینجا A فرضیه ای است که در آن B به یک دسته تعلق دارد، فرضیه اینکه B به دسته A تعلق دارد.
در ادامه به بررسی فرمول می پردازیم.
P(A | B) یعنی احتمال اینکه مقاله B با توجه به لیبلهایی که دارد چقدر احتمال دارد در دسته موضوعی A قرار بگیرد. به( P(A | B احتمال پسین و به P(A) احتمال پیشین گفته می شود. احتمال پیشین به احتمال وقوع یک رخداد نسبت به کل گفته می شود. مثلا چون 20 درصد از مقالات متعلق به حوزه موضوعی علوم انسانی است، پس به احتمال 20 درصد این مقاله هم متعلق به همان حوزه موضوعی است. اما احتمال پیشین یعنی اینکه با توجه به ویژگیهایی که در مورد یک مقاله داریم مثل مجله، نام نویسنده و غیره به این نتیجه میرسیم که مقاله متعلق به حوزه موضوعی علوم انسانی نیست و ما پس از آنکه تمام ویژگی ها را دیدیم نظرمان نسبت به موضوع مقاله عوض میشود. (P(B | A نیز درست نمایی گفته می شود، در واقع احتمال این هست که برای یک فرضیه خاص، نمونه B مشاهده شود.
استفاده از قانون بیز در دسته بندی
برای استفاده از قانون بیز در دسته بندی باید احتمالات گوناگون را در نظر بگیریم. در مثال حوزه موضوعی مقاله، باید احتمال وقوع مقاله در حوزههای مختلف موضوعی را بدست بیاوریم، یعنی احتمال وقوع مقاله در همه حوزههای موضوعی محاسبه شود. در اینجا، بر اساس برچسبهای مقاله هم احتمال حوزه موضوعی آن را در دسته مهندسی و هم در علوم انسانی محاسبه میکنیم. اگر احتمال وقوع مقاله در دسته مهندسی بیشتر از دسته علوم انسانی بود، پس مقاله متعلق به دسته مهندسی است.
منبع
غلام نژاد, لطفیان و میرزائیان لرد کیوان. (2020). مقایسه روش های طبقه بندی، شبکه عصبی مصنوعی و رگرسیون چندمتغیره در برآورد بازیابی فلز از بلوک کانسنگ. نشریه مهندسی منابع معدنی, 5(2), 21-41.
[1] Bayes’ rule