Matemático británico. Nacido en Londres en 1702, Bayes estudió principalmente teoría de la probabilidad en matemáticas e hizo contribuciones en funciones de decisión estadística, inferencia estadística y estimación estadística. Su teoría de la probabilidad estadística se conoce como bayesiana de Thomas Bayes. Antes de que Bayes escribiera este artículo, la gente ya podía calcular la "probabilidad positiva", como "Supongamos que hay N bolas blancas y M bolas negras en la bolsa. Si metes la mano y la tocas, la probabilidad de encontrar la bola negra es M/ (MN)”. Una pregunta muy natural es al revés: "Si no conocemos de antemano la proporción de bolas blancas y negras en la bolsa, pero cerramos los ojos y sacamos una (o varias) bolas y observamos los colores de estas bolas, entonces podemos determinar la proporción de bolas blancas y negras en la bolsa. Haga algunas conjeturas sobre la proporción de bolas blancas y negras en la bola. "Este problema es el llamado problema de probabilidad inversa. El bayesiano nació para resolver este tipo de probabilidad inversa.
P(An|B) = p(An) p(B|An)/p(B)
Aplicación de fórmula:
Conocido* * * Hay 100 correos electrónicos, incluidos 70 correos electrónicos normales y 30 correos electrónicos no deseados. La palabra "trabajo a tiempo parcial" aparece 10 veces en el correo postal y 20 veces en el spam.
Necesidad de resolver: ¿Cuál es la probabilidad de que un correo electrónico que contenga la palabra "trabajo a tiempo parcial" sea spam?
p(basura|tiempo parcial)=p(basura)p(tiempo parcial|basura)/p(tiempo parcial)
p(spam)= 30/( 70 30)=0.3
p(Tiempo parcial)= (10 20)/100=0.3
p(Tiempo parcial|Spam)= 20/30
p(Junk|Part-time )=0.3*0.67/0.3=0.67
Naive Bayes es un algoritmo de modelado predictivo simple pero extremadamente poderoso, por lo que se llama Naive Bayes porque cada característica que asume es es independiente.
Por ejemplo:
Simplificado a: