Capturando dados do Campeonato Brasileiro com Python

Um passo a passo para você capturar os dados do Brasileirão

Rafael de Arruda
Data Hackers
8 min readNov 25, 2020

--

E aí, PessoAll!

Como eu disse no post “Sobre mim”, minha ideia é compartilhar o que eu for exercitando dos cursos e leituras que eu fizer.

Estou bastante feliz em vir hoje compartilhar o primeiro código “robusto” em Python que fiz.

Deixarei o link com o código e a base gerada ao final do texto para quem quiser utilizar.

Motivação

Eu gosto muito de futebol e vi algumas matérias sobre como a Alemanha usou dados na Copa, o Liverpool na Champions e o Grêmio que adotou a mesma solução da seleção alemã. Guardadas as devidas proporções, fiquei imaginando se teria uma base de dados pública que me permitisse analisar dados de jogos do futebol brasileiro.

Dei uma pesquisada, mas não encontrei uma base “pronta”. Nem no site da CBF. Porém vi que site concentra os dados, notícias de diversas competições que a entidade organiza. Acessei a página do Campeonato Brasileiro e lá tem dados desde 2012 da série A (tem das demais séries, mas olhei essa a princípio).

Os dados estão disponíveis, mas não de uma maneira simples de extrair. Precisaria fazer um trabalho braçal enorme para conseguir coletar os dados. Por quê? Bom… Por temporada são 380 jogos e os dados de cada jogo estão “espalhados” em diferentes locais da página. Levaria uns meses copiando e colando.

Levaria um tempinho…

E agora? Como fazer?

Como contei anteriormente, fiz alguns cursos sobre diversos assuntos e acabei não praticando. Um deles foi o Python Básico, da Solyd (é gratuito!) que dá uma visão geral da linguagem . Dei uma “Googlada” para relembrar os conceitos que vi no curso e para verificar o que mais eu poderia utilizar para capturar os dados e construir uma base para armazená-los.

Cheguei a um artigo publicado no iMasters que me relembrou como utilizar a biblioteca requests que vi no curso e explicou rapidamente biblioteca BeautifulSoup para fazer web scraping.

A biblioteca requests fará uma solicitação ao servidor que armazena a página e o download da página; a biblioteca BeautifulSoup possibilitará analisar a página capturada pela requests e extrair as tags em que os dados.

E o que são essas benditas tags? O HTML é uma linguagem de marcação que utilizam as tags para definir como o navegador exibirá o conteúdo da página. Simplificando, para toda uma tag que abre outra fecha.

E como eu descobri quais as tags que eu queria capturar das páginas dos jogos? Cliquei com o botão direito no navegador e em “exibir o código fonte da página”

Ao analisar o código da página consegui identificar as tags que continham os dados que eu queria capturar: data, hora, local do jogo, placar e times.

Destaquei em vermelho a tag e em verde os dados.

Com as tags que desejava capturar enfim definidas…

Mãos à obra!

Para codar (sempre quis dizer isso!) utilizei o Jupyter Notebook por ter achado a interface mais agradável do que a do PyCharm, mas poderia ter utilizado o Google Colab ou a edição Community do Databricks. Até recomendo utilizarem o Colab ou o Databricks porque não precisarão instalar nada na máquina e possibilita o desenvolvimento e execução do código em qualquer dispositivo com conexão à internet, mas fica ao seu critério.

É importante dizer, antes de qualquer coisa que, excetuando as bibliotecas que fiz uso, o código que escrevi utiliza o considerado “básico da programação”: estruturas de dados (listas), variáveis e loops (for). E entenda que esse “básico”, para mim, é complexo (vem se tornando um pouco menos conforme venho exercitando).

Vamos ao código…

Captura

Como eu disse lá no começo do texto, o site da CBF disponibiliza os dados com as temporadas a partir de 2012 a atual, além das diversas séries. Como vi que as páginas da série A e B do campeonato são idênticas, resolvi ousar um pouco e expandir o código para capturar os dados também da série B.

Então agora o código teria que percorrer duas séries (A e B), 8 temporadas de cada e mais 380 jogos em cada temporada. Isso deu um número de 6.080(!) links de jogos para acessar e capturar os dados.

2 * 8 * 380 = 6080

Para isso utilizei três loops for para construir o link de cada jogo que deveria ser capturado:

Exemplo do link que deve ser acessado:

https://www.cbf.com.br/futebol-brasileiro/competicoes/campeonato-brasileiro-serie-a/2019/380

BeautifulSoup

Utilizei as funções do BeautifulSoup para acessar as tags que eram do meu interesse na página do jogo:

a) Número do Jogo

Retornou

b) Data, hora e local do jogo

Retornou

c) Times

Retornou

d) Gols dos times

Retornou

Listas

Como viram as funções do BeautifulSoup , por conta de como o site foi desenvolvido, retornaram listas e como queremos trabalhar apenas com os dados, precisaremos efetuar alguns tratamentos.

Mas antes de irmos aos tratamentos, precisamos falar rapidamente sobre listas. As listas são estruturas de dados, em Python, delimitadas por colchetes [] e os elementos armazenados na lista são delimitados por vírgula.

E como se acessa cada item da lista? É necessário passar como parâmetro o index da posição que se deseja acessar. Ou seja, tomando como exemplo a lista acima, se eu quiser acessar o primeiro item da lista devo utilizar o comando lista[0] para o segundo devo utilizar lista[1] e assim por diante.

Retomando o nosso exemplo dos jogos, a lista abaixo armazena os times que disputaram o jogo:

Para acessar somente o mandante do jogo deve-se utilizar:

E para acessar o visitante:

Esse foi o mesmo padrão para as demais tags que foram capturadas, já que todas elas retornaram listas.

Um adendo, é importante acrescentar a função get_text() para que o resultado traga apenas o texto armazenado dentro das tags.

Tratamento dos dados

Os dados em sua origem costumam não estar padronizados, seja por erro no input, incompatibilidade do encoding (UTF-8, ANSI…), diferença entre os ambientes de captura e armazenamento etc. E em 99,9% das vezes é necessário efetuar diversos tratamentos no dado para adequá-lo ao ambiente em que ele será carregado, para criar um novo campo a ser utilizado numa análise etc.

Tomemos novamente o exemplo dos times que disputam os jogos. Ao capturá-los é possível verificar que junto com nome retornou o estado do qual o time é:

Achei bom separar estes dois dados e para fazê-lo utilizei o comando split() para o qual é necessário passar o parâmetro que serve de delimitador, no nosso caso o ‘-’:

Como é possível verificar, novamente o retorno é uma lista.

Cada uma das tags retornou dados que precisaram de algum tipo de tratamento, seja o split, remoção de acentos ou remoção de espaços à direita e à esquerda, padronização do campo de data, conversão de strings em numéricos etc.

Todos esses tratamentos estão documentados e comentados no Jupyter Notebook que disponibilizo ao final do texto. Para organizar esses tratamentos, criei um bloco no notebook que concentra todas as funções que utilizei para tratar os campos.

Bloco do Trata das Funções (Allah-la-ô!)

Armazenamento

Para cada jogo pesquisado, armazenei em uma lista (sim, ela de novo!) todos os campos que criei a partir das tags:

Na verdade, utilizei duas listas, a primeira armazena somente o jogo atual que o loop esta pesquisando e na outra eu “appendei” o histórico de todos os jogos que o programa capturou:

Se você exibir um registro da lista o resultado seria:

Poderia ter utilizado um dicionário também, mas bati cabeça e não consegui fazer funcionar, então optei por ficar com a lista mesmo.

Ainda como parte do exercício utilizei a biblioteca Pandas para converter a lista em um DataFrame:

Olha o DataFrame aí!

Aproveitei para salvar o resultado em um arquivo Excel e facilitar caso alguém só queira analisar os dados como era a minha intenção no início.

Para não prolongar ainda mais o texto, vou parando por aqui, mas no notebook com o código ainda tem alguns complementos relacionados a profiling e visualização de dados que em posts futuros irei abordar com mais profundidade

Considerações finais

Você que chegou até aqui, muito obrigado por ler!

Ficarei muito grato se deixar seu comentário sobre o conteúdo, o texto, o código ou o que mais você achar por bem comentar e que possa me ajudar a melhorar.

Repositório com o código e os dados

O código e o excel com os dados estão armazenados no meu repositório do GitHub.

Por hoje é só, PessoAll!

Referências

Paruchuri, V. Aprendendo sobre web scraping em Python utilizando BeautifulSoup. iMasters, 2016. Disponível em: <https://imasters.com.br/back-end/aprendendo-sobre-web-scraping-em-python-utilizando-beautifulsoup>. Acesso em: 21 de out. de 2020

Beautiful Soup Documentation. c2004–2020. Página Inicial. Disponível em <https://www.crummy.com/software/BeautifulSoup/bs4/doc/>. Acesso em: 23 de out. de 2020

--

--

Rafael de Arruda
Data Hackers

Curious | Analytics Engineer | Data Governance Analyst | Data Analyst |