O Teorema de Bayes descomplicado: Entenda e aplique na prática
Mergulhando na estatística bayesiana e explorando suas aplicações no mundo real
--
Sumário
→ Antes de mais nada… o que é a Estatística Bayesiana?
→ O que é o Teorema de Bayes?
→ O problema de Monty Hall: a pegadinha da probabilidade
→ Exemplo — Diagnóstico de uma Doença
→ Teorema de Bayes na ciência de dados
→ Conclusões
→ Referências
Antes de mais nada… o que é a Estatística Bayesiana?
Quando pensamos em estatística e probabilidade, muitos de nós tendemos a pensar em jogos de azar, cassinos ou frequentemente em lançamento de dados. Entretanto, há um campo dentro da estatística que vai além e nos permite atualizar nossas crenças com base em novas evidências: a Estatística Bayesiana. O nome é derivado de Thomas Bayes, um pastor e matemático inglês do século XVIII, e o teorema que leva seu nome é o tema deste artigo.
A estatística bayesiana envolve a ideia de que podemos começar com uma crença inicial (ou priori) sobre um evento e, à medida que obtemos novos dados, atualizar essa crença. Em outras palavras, não trabalhamos com uma única probabilidade fixa, mas sim com uma probabilidade que evolui à medida que novas informações são obtidas.
Mas como assim??… Vamos seguir com o exemplo do peso de uma deliciosa jaca
Imagine que você está tentando adivinhar o peso de uma jaca. Antes de pegá-la, você já tem uma ideia aproximada do peso baseada em todas as jacas que já pegou antes.
Acho que esta jaca deve pesar uns 2kg!!
Essa é a sua crença inicial ou probabilidade a priori.
Agora, você pega a jaca e sente o seu peso. Ao sentir o peso da jaca você ajusta sua estimativa inicial.
Nossa, é bem pesada! Põe uns 3kg à mais no peso dessa jaca!
Assim, você atualiza sua crença. Esse processo de atualização é o que o Teorema de Bayes nos ajuda a fazer matematicamente.
O que é o Teorema de Bayes?
Em sua essência, o Teorema de Bayes fornece uma maneira de atualizar as probabilidades à medida que obtemos novas informações. É a base da inferência estatística bayesiana, que trata os parâmetros como variáveis aleatórias, enquanto que a inferência clássica (ou frequentista) os considera como constantes.
A fórmula de Bayes é expressa da seguinte forma:
Neste caso,
- P(A|B): É a probabilidade a posteriori de A, ou seja, a probabilidade de A ocorrer, dado que B ocorreu. Após receber novos dados (como pegar a jaca), você atualiza sua crença inicial. Agora, você tem uma nova estimativa do peso.
- P(B|A): É a probabilidade de B ocorrer, dado que A ocorreu.
- P(A): É a probabilidade a priori de A. Representa nossa crença inicial ou conhecimento sobre A antes de levar em consideração a nova informação B. No caso da jaca, é a estimativa inicial do peso antes de pegá-la.
- P(B): É a probabilidade total de B.
O problema de Monty Hall: a pegadinha da probabilidade
O problema de Monty Hall é uma espécie de “pegadinha” da probabilidade, nomeado em referência ao apresentador de televisão Monty Hall, do programa de jogos “Let’s Make a Deal”. O problema se tornou muito famoso e foi citado pelo livro “O Andar do Bêbado”, de Leonard Mlodinow (recomendo muito a leitura), que utiliza o exemplo para ilustrar que nem sempre a probabilidade é o que parece, nem sempre se mostra tão intuitiva.
Descrição do problema:
- Imagine que você está em um programa de jogos e diante de três portas. Atrás de uma das portas há um carro (o prêmio que você deseja) e atrás das outras duas há cabras.
- Você escolhe uma porta, por exemplo, a porta 1.
- Monty, que sabe o que está atrás de cada porta, abre uma das outras duas portas que tem uma cabra atrás, por exemplo, a porta 3.
- Agora, Monty lhe oferece a opção de permanecer com sua escolha original (porta 1) ou trocar para a outra porta fechada (porta 2).
Se você estivesse diante desta situação, o que escolheria? Qual seria a melhor estratégia? Ficaria com sua escolha original ou trocaria de opção?
Como solucionar utilizando o Teorema de Bayes?
Para resolver o problema usando o Teorema de Bayes, vamos calcular a probabilidade de o carro estar atrás da porta 2. Inicialmente, precisamos concordar que a probabilidade do carro estar atrás de qualquer porta é 1/3, correto?
Como o apresentador sabe o que há atrás de cada uma das portas, ele pode abrir uma das portas que não foi escolhida e que não tenha o carro (porta 2 ou porta 3). Vamos supor que Monty abriu a porta 3.
Definindo os eventos:
- C1: Carro está atrás da porta 1.
- C2: Carro está atrás da porta 2.
- C3: Carro está atrás da porta 3.
- M3: Monty abre a porta 3.
Na qual:
- P(M3|C2): Sabendo que você escolheu a porta 1, caso o carro estiver atrás da porta 2, Monty certamente abrirá a porta 3. Logo, P(M3|C2) = 1.
- P(C2): Como já vimos, a probabilidade a priori do carro estar atrás da porta 2 é 1/3.
- P(M3): É a probabilidade Monty abrir a porta 3.
Entendendo P(M3)
A P(M3) refere-se a probabilidade de Monty abrir a porta 3, dentre todas as possibilidades. Aqui vão elas:
Possibilidade 1: Repare que, se sua primeira escolha foi a porta com o carro (1/3 de chance), Monty escolherá a porta 3 com probabilidade de 1/2, já que terá duas portas vazias que pode abrir, a porta 2 e a porta 3. Ou seja, P(M3|C1) = 1/2.
Possibilidade 2: Porém, se você escolheu uma porta com uma cabra, Monty escolherá a porta 3 com probabilidade 1, pois das duas portas restantes, uma possui o carro e a outra não. E o apresentador não vai abrir a porta com o carro. Ou seja, P(M3|C2) = 1.
Possibilidade 3: Se o carro estiver atrás da porta 3, a probabilidade de Monty escolher esta porta é nula. Ou seja, P(M3|C3) = 0.
Desta forma, podemos calcular a P(M3) como:
Substituindo os valores
Assim, podemos calcular a P(C2|M3):
Resumindo:
Inicialmente, a probabilidade de o carro estar atrás de cada uma das portas era 1/3 e você escolheu a porta 1. Após Monty abrir a porta 3, a probabilidade de o carro estar atrás da porta 2 passa para 2/3, ou seja, é mais vantajoso trocar de porta!
Exemplo — Diagnóstico de uma Doença
Imagine que há uma doença rara que afeta 1% da população. Há um teste para detectar essa doença, e o teste tem uma taxa de verdadeiro positivo (sensibilidade) de 99% e uma taxa de falso positivo de 5%. Se uma pessoa testar positivo, qual é a probabilidade de ela realmente ter a doença?
Dado:
- P(D): Probabilidade de ter a doença = 0.01
- P(-D): Já que a probabilidade de ter a doença é 0.01, a probabilidade de não ter a doença é 1-P(D) = 0.99
- P(Pos|D): Probabilidade de um teste positivo dado que tem a doença = 0.99
- P(Pos|-D): Probabilidade de um teste positivo dado que não tem a doença = 0.05
O que o problema quer encontrar é P(D|Pos), desta forma:
Para calcular a P(Pos), devemos considerar tanto os verdadeiros positivos (resultado é positivo e a pessoa realmente possui a doença) quanto os falsos positivos (resultado é positivo mas a pessoa não possui a doença):
Substituindo os valores, chega-se que P(Pos) = 0.0594. Substituindo este valor no Teorema de Bayes, temos:
Ou seja, a probabilidade de possuir a doença dado que se tem um diagnóstico positivo é de 16,67%.
Teorema de Bayes na ciência de dados
O Teorema de Bayes tem presença em diversas sub áreas da ciência de dados, entre elas:
- Machine Learning: O teorema bayesiano é utilizado em algoritmos de aprendizado de máquina supervisionados, como por exemplo o Naive Bayes, atuando na determinação das probabilidades das classes.
- Análise estatística: Como foi apresentado neste artigo, o teorema pode ser utilizado também na atualização de probabilidades com base no conhecimento de novas evidências.
- Natural Language Processing (NLP): O classificador de Naive Bayes pode atuar na classificação de documentos.
Conclusão
O Teorema de Bayes nos permite integrar novas evidências e ajustar nossas crenças e suposições de forma contínua. Esta abordagem dinâmica é essencial em um mundo onde a mudança faz parte do cotidiano.
E como apresentado neste artigo, a capacidade de atualizar as crenças à medida que novas informações são apresentadas é uma habilidade requisitada em muitas áreas, desde a medicina até a inteligência artificial.
Ainda não me segue no Medium? Aproveite e me siga para ficar sabendo toda vez que sair um artigo novo do forninho!!
LinkedIn: https://www.linkedin.com/in/edson-junior/
GitHub: https://github.com/ejunior029
Referências
- Livro: Estatística Básica — Por Wilton Bussab e Pedro Morettin
- Livro: Probabilidade “Um curso moderno com aplicações” — Por Sheldon Ross
- Livro: O andar do bêbado — Por Leonard Mlodinow
- Aprendizado Bayesiano Aplicado ao Processamento de Línguas Naturais — Por Thiago Salgueiro e Maria das Graças