Como estruturamos uma equipe de dados aqui no Mercado Livre ?

Elissa Suzuki
Mercado Libre Tech
Published in
13 min readDec 15, 2023

Alguma vez já se perguntou como uma grande empresa estrutura os seus times de dados ? Com a crescente importância destas equipes e destes perfis nas empresas, especialmente no contexto do mercado digital, certamente essa pergunta já passou pela sua cabeça. Por isso te convido a ler este artigo, que por meio de um caso real, te darei dicas de como estruturamos nossas equipes analíticas aqui no Mercado Livre, o maior e-commerce da América Latina !

Com o crescimento do mercado digital e, consequentemente, das carreiras relacionadas a este universo, é cada vez mais comum a estruturação e fortalecimento das áreas de profissionais que manipulam dados nas empresas, mesmo naquelas já oriundas da era pós internet, como é o caso do Mercado Livre. Nos próximos parágrafos, contarei os principais pontos deste processo de formação de uma das equipes de dados aqui do Meli !

Antes de começarmos, é importante darmos um passo para trás e olharmos de maneira estratégica e organizacional algumas formas que uma companhia pode organizar os seus times de dados e claro, como estamos organizados neste sentido aqui no Mercado Livre.

Como estruturar um time de dados

Existem diversas maneiras para abordar este tema. Aqui estão alguns modelos comuns:

Modelos de operação de equipes analíticas, datathinking2020, por Cappra Institute. Link
  1. Modelo centralizado.
    Neste tipo de modelo, há uma equipe de dados central dentro (ou não) de uma estrutura de TI, em que todas as demandas relacionadas a dados, sejam elas mais estruturais como: ingestão, modelagem ou ETL (do inglês, extração transformação e carregamento) ou avançadas como modelos preditivos que utilizam técnicas de inteligência artificial devem obrigatoriamente ser desenvolvidas por esta equipe. Este cenário pode ser favorável para garantir governança dos dados, porém por outro lado pode representar um gargalo já que todas as demandas de dados são resolvidas por uma única área, o que pode vir a ocasionar o que chamamos de “shadow IT”, células de dados que funcionam em paralelo ao modelo centralizado para dar vazão a alta demanda, e que podem pôr em risco uma das vantagens deste modelo, a governança de dados.
  2. Modelo descentralizado.
    Neste contexto, você encontrará profissionais de dados espalhados pela companhia, em diversas unidades de negócio, o que por um lado pode dar vazão aos pedidos de cada área, mas por outro lado desfavorece as tentativas de governança (casos de “a mesma métrica com resultados diferentes” são bem comuns neste cenário) e aumenta (em muito !) a possibilidade de trabalho duplicado (áreas diferentes estarem construindo o mesmo produto analítico).
  3. Modelo híbrido.
    Eu diria que este tipo de modelo é o que mais se assemelha a como estamos organizados como equipe de dados aqui no Meli. Neste tipo de estruturação, existe um time central e ao mesmo tempo, você encontrará diferentes células de dados dentro de diferentes equipes como TI, Produto, Vendas, Operações, etc. Aqui no Mercado Livre, esta estrutura corporativa está localizada em TI e é chamada de IT — Data & Analytics, com mais de 300 funcionários distribuídos por 6 países da América Latina e temos como um dos nossos principais objetivos fornecer capabilities que irão apoiar todas as células de dados a alavancarem nosso negócio por meio de análises, insights e modelos preditivos.

Aqui no Meli, trabalhamos com esse tipo de estrutura organizacional há algum tempo. E se não funcionar, não há problema pois estamos em beta contínuo (aliás, esse é um dos nossos princípios culturais) e prontos para reajustar. Claro que há pontos negativos e positivos nesse modelo, mas ele tem se mostrado adequado até então, se encaixando no contexto e desafios da nossa empresa. Entendemos que se trata de um modelo adequado pois possibilita dar independência aos diversos usuários para que façam uso de um modelo de auto serviço de Analytics, enquanto a nossa área central foque no desenvolvimento de capacidades analíticas transversais à companhia e no desenvolvimento da cultura de Dados no Meli.

Uma destas capacidades citadas acima é o Data Mesh, que vem sendo aplicado aqui desde o final de 2022, trazendo tecnologia aliada ao nosso modelo organizacional. Em grandes linhas, Data Mesh é um conceito de mercado que consiste na descentralização da produção de tabelas oficiais (aqui no Meli abarcamos a descentralização para dashboards e relatórios). Desta maneira, se uma equipe quer disponibilizar algum tipo de ativo analítico a toda companhia, ela mesma pode fazê-lo caso tenha as habilidades para tal, não dependendo de uma equipe central garantindo melhor o time-to-market e respostas mais rápidas às perguntas de negócio. Data Mesh é um tema relativamente novo, extenso e profundo que merece um ou mais artigos por si só e que mais para frente também compartilharemos nossas experiências com o tema aqui no Medium !

Sendo parte da área de IT — Data & Analytics do Meli, em 2022, eu recebi o duplo desafio de fortalecer nosso time corporativo de dados para a unidade de negócios Mercado Envios e estrutura um time brasileiro de Cientistas de Dados para diferentes unidades de negócios como Shipping , Fintech, Marketing e CX (Experiência do Cliente). No total, tivemos que contratar 14 pessoas num período de aproximadamente 9 meses e como várias organizações já passaram ou passarão por este tipo de desafio, deixo aqui algumas dicas para quem vai precisar montar aquele tão sonhado time de dados !

Primeiro de tudo, tenha claro o contexto analítico em que a sua área e sua empresa estão inseridos. Com o boom das carreiras em tecnologia, é necessária certa cautela para não cair nos erros dos modismos, como por exemplo montar uma equipe de cientistas de dados quando na verdade a empresa ou área ainda não tem uma boa fundação de dados. Foco no contexto e nos problemas que precisam ser resolvidos por meio de dados para alavancar o negócio são essenciais para montar um time adequado. Como no nosso caso, nesse grupo de 14 pessoas contratadas, havia uma maior concentração de cientistas de dados pois sabíamos que outras vertentes analíticas como estruturação, dashboarding e geração de insights já estavam bem direcionadas. Além disso, trabalhar bem perto dos stakeholders, entendendo suas dores e dia-a-dia nos levou à decisão de contratar mais cientistas de dados. Tínhamos esta visão clara e, caso você, sua área ou empresa não a tenha, recomendo estruturá-la antes de tomar uma decisão de quem e qual perfil contratar.

O contexto em que o Mercado Livre se encontra: empresa do ramo de tecnologia relativamente madura, com 24 anos e nativamente digital, facilitam as respostas das perguntas acima, além de favorecerem a maturidade analítica da organização. Falando no tema, deixo duas recomendações de artigos escritos por dois integrantes aqui do nosso time de IT — Data & Analytics:

No final do dia, deve estar muito claro qual a maturidade de dados que a sua área e/ou empresas estão inseridos. Existem vários artigos e metodologias que discorrem a respeito do tema e nomeiam cada etapa deste conceito de maturidade que é uma forma de medida que demonstra o quanto uma empresa tira valor dos dados, desde os níveis mais elementares como baixo conhecimento em dados e análises manuais, níveis intermediários com certo grau de automação e união de distintas fontes sistêmicas até níveis mais avançados com capacidade de processamento de dados em tempo real, decisões sendo tomadas sempre baseadas em dados e produtos analíticos desenvolvidos para melhores experiências dos clientes e melhores resultados.

Com o contexto mais claro, decida pelos perfis. Dentro do universo ao qual nos referimos como “dados”, existe uma série de especialidades distintas. Assim como no universo do Direito no qual temos diversas áreas como penal, trabalhista, tributário, etc., na área de dados também encontramos diferentes competências. Aqui listei os principais perfis encontrados em nossa área central (não são apenas estes que existem):

Engenharia de Dados. Perfil responsável por estruturar as bases de dados (em formato de tabela ou não) que subsidiarão todas as consultas, análises, modelos preditivos, etc., que serão desenvolvidos a partir deste ponto. As pessoas que trabalham com engenharia de dados atuam principalmente desenvolvendo modelos de dados, ou seja, como as tabelas são organizadas e se relacionam entre si, datamarts (tabelas com uma visão específica de negócio) e otimização de consultas a bancos de dados. Engenharia de Dados, em resumo, é a personificação da sigla ETL (do inglês, extract, transform e load) ou ELT (do inglês, extract, load e transform) e pensou em ETL/ELT , pensou em Engenharia de Dados. Atualmente, grande parte dos engenheiros/as de dados trabalham sob estruturas de nuvem, o que requer conhecimentos específicos de cada ferramenta dos provedores cloud, já que cada uma terá suas particularidades. Entretanto, conhecimento em SQL (Structured Query Language) e modelagem em banco de dados relacionais são conhecimentos fundamentais para quem atua nesta área.

Analytics (ou tradicionalmente conhecido como BI, Business Intelligence). Este perfil trabalha a partir dos dados disponibilizados pelos engenheiros, montando dashboards, análises, relatórios, métricas e também buscando insights, ou seja aquele “fato escondido” que precisa de um pouco mais de profundidade e análise para ser descoberto e que pode apoiar o direcionamento de uma estratégia e até mesmo trazer grandes resultados ao negócio. A turma de Analytics deve conhecer SQL, Python (principalmente as bibliotecas para análise e visualização de dados) e ferramentas de visualização de dados, que são muitas no mercado e aqui no Meli utilizamos Looker, Looker Studio (antigo Data Studio) e Tableau. Inclusive, deixo aqui outra dica de leitura, de um caso de uso de Looker, no qual monitoramos minuto a minuto os envios em nossa rede logística.

Ciência de Dados. A pessoa que trabalha com ciência de dados utiliza os mesmos dados da turma de Analytics, com a diferença de qual pergunta ela irá responder. Enquanto as pessoas de Analytics estão mais focadas em responder perguntas relacionadas ao passado como: “Quantos produtos X vendemos ontem ? ” ou “Por que tivemos um aumento de vendas no produto Y ?” e dispô-las de maneira adequada, as pessoas cientistas de dados estão focadas em responder por exemplo: “Quantos produtos X venderemos no próximo mês ?”, “Deveríamos aumentar nosso estoque de produtos Y já que teremos um pico de vendas no próximo mês ?”. Para isso, estas pessoas devem conhecer, em linhas gerais, conceitos de Estatística e Álgebra, algoritmos e no ramo da programação, Python e suas bibliotecas de manipulação de dados e Machine Learning como Pandas, Numpy, Scikit-Learn, TensorFlow e o já mencionado anteriormente, SQL. Aqui no Meli, não utilizamos a linguagem R, que embora seja bem popular no universo de estatística, optamos não utilizá-la já pensando na performance dos modelos produtivos.

Por último porém não menos importante, gostaria de mencionar dois papéis importantes: desenvolvedores e posições de cultura de dados. Apesar do primeiro não ter a palavra "dados" em sua composição, está cada vez mais claro que a união desenvolvimento e dados só traz vantagens. Isso porque conseguimos criar produtos mais escaláveis, por meio da construção de APIs e fronts por exemplo, e também por incluir o tema dados desde o começo do processo de desenvolvimento de software. E quando falamos de posições relacionadas a cultura de dados, nos referimos a perfis que possuem habilidades de comunicação, desenvolvimento de treinamentos e educação bem apurados para poder compartilhar conhecimento e criar ferramentas capazes de escalar a temática dados para toda empresa.

Vale lembrar que mencionei somente alguns dos perfis que temos aqui em nossa área e mesmo dentro destes, existem especializações. Considerando o time de ciência de dados e as competências de Machine Learning e Deep Learning (duas subáreas de IA) que possuem suas especialidades. Torna-se relevante conhecer tais especialidades para que a formação da equipe seja devidamente equilibrada. No nosso caso, optamos por formar uma equipe de cientistas de dados generalistas, que são capazes de resolver diversos problemas e responder a diversas perguntas de diferentes unidades de negócio. Mais uma vez, montamos uma equipe com estas características pois o contexto nos permitia e permite isto.

Decidido quais perfis analíticos buscar, está na hora de fazer a busca das pessoas candidatas !

Aqui no Meli, trabalhamos em forte parceria com a equipe de Talent Acquisition (TA) e o processo de seleção de pessoas é feito de ponta a ponta com esta equipe. Ao longo do processo, analisamos entre outras variáveis, alinhamento cultural, habilidades técnicas, comportamentais e pacote de compensação/benefícios.

E o mais importante de tudo e que pode parecer clichê, porém é muito verdadeiro, o alinhamento cultural assim como as habilidades comportamentais devem ser prioritárias em relação às habilidades técnicas. As expectativas do candidato devem estar alinhadas ao que a vaga apresenta (por isso os pontos anteriores apresentados são tão importantes. Não basta contratar cientistas de dados para preencher vagas onde o problema a ser resolvido é de engenharia de dados), assim como o estilo de trabalho do candidato estar alinhado com o da empresa. Neste sentido, o Meli é uma empresa que vive fielmente os seus 6 princípios culturais: competimos em equipe para ganhar, executamos com excelência, estamos em β contínuo, empreendemos assumindo riscos, criamos valor para o usuário e damos o máximo e nos divertimos, fazendo com que cada um dos funcionários assuma uma postura protagonista diante de um ambiente dinâmico e aberto ao risco.

rincípios Culturais do Mercado Livre — Link

Por fim, assim como acontece em um relacionamento é normal que às vezes o “match” não aconteça. Ter bem claro o estilo, objetivos e necessidades de ambos os lados é essencial para que a conexão aconteça e seja construída uma relação que, com o passar do tempo, proporcione benefícios e crescimento para o profissional e para o Meli.

Nos parágrafos anteriores, escrevi sobre como estamos organizacionalmente estruturados em relação ao tema de dados, os principais perfis e também o processo de contratação que adotamos por aqui. Ainda assim, também é interessante compartilhar como armamos as equipes que executam projetos que envolvam dados baseado nas dores e necessidades dos nossos usuários e stakeholders. Para isso, pensemos em 3 perguntas:

  • O que ocorreu e por que ocorreu?
  • Qual o comportamento previsto que pode vir a ocorrer ?
  • O que devemos fazer dado que determinado comportamento irá ocorrer ?

Essas 3 perguntas são chave para determinar os entregáveis e também o perfil da equipe a ser montado.

A primeira pergunta está relacionada ao que chamamos de análises descritivas e diagnósticas nas quais busca-se entender por exemplo por que tivemos na semana passada uma alta ou baixa no GMV (Gross Merchandise Volume) — métrica fundamental utilizada para calcular o volume bruto de vendas em nosso e-commerce. Este tipo de desafio em que necessitamos criar métricas, automatizar sua atualização e deixá-las disponíveis em dashboards ou relatórios, respondendo a perguntas de eventos que ocorreram no passado, faz parte da missão dos engenheiros e analytics ou também dos analytics engineering (perfil que junta os dois anteriores). Já a segunda pergunta, o objetivo é por exemplo estimar o GMV da próxima semana para que a empresa possa preparar suas equipes de operação, comercial, etc. com antecedência, estimando assim comportamentos que ocorrerão no futuro, entrando em ação os cientistas de dados que também acabam por atuar na terceira pergunta que tem como objetivo recomendar uma ação baseada em algum comportamento futuro já anteriormente predito. Um dos casos de uso aqui do Meli que se beneficiam da terceira pergunta é o algoritmo de recompra automática de ítems 1P (First Party) — modelo em que somos responsáveis pela compra, estoque, transporte e precificação de produtos de provedores (sempre que você ver “Loja Oficial Mercado Livre” em nosso site, é porque este ítem é oferecido neste modelo 1P). Em linhas gerais, as equipes de Negócio e Produto chegaram com possíveis cenários de ficarmos sem estoque de ítems 1P, gerando uma má experiência de “sem estoque” para nossos compradores e diante disso, desenvolvemos um algoritmo que sugere a quantidade ideal de ítems que devemos comprar de nossos provedores baseado, entre outras variáveis, em nosso forecast de vendas, que inclusive tem este artigo escrito pelo nosso cientista de dados Juan Coba que conta tecnicamente como predizemos comportamento de vendas.

Um outro caso de uso interessante de citar, que mescla as perguntas um e dois e fica na unidade de Mercado Envios, é o de Places. Places são agências autorizadas — geralmente comércios locais — a receberem pacotes de vendedores, devoluções e retiradas de compradores, fazerem recarga de celular, entre outros serviços (é mais uma das maravilhas da nossa rede logística !) e desde 2021 vemos construindo produtos analíticos junto com as equipes de Produto e Negócio desta modalidade. Neste contexto, produzimos desde relatórios e dashboards com os principais indicadores dos Places que são atualizados diariamente, como por exemplo, volume de pacotes recebidos e retirados para que as equipes de negócio possam ter visibilidade, acompanhando a performance dos Places e suporte em dados para rápida tomada de decisão.

Exemplo de um Place do Mercado Livre— Link

Além disso, nesta mesma equipe também trabalhamos com cientistas de dados para predizer o comportamento de vendas de uma categoria de nossos vendedores nos próximos 30 dias que utilizam o método de envio Cross Docking, no qual os produtos são recolhidos pelo Mercado Livre e posteriormente despachados para o comprador. Dessa maneira, atribuímos de acordo com a volumetria de vendas de cada vendedor se este faz o despacho das mercadorias via Places ou via Coleta Direta (em que uma van do Mercado Livre retira os produtos no endereço indicado), otimizando assim a nossa rede logística.

E com isso chegamos ao final de mais um artigo aqui no Medium Mercado Libre Tech que tem como um dos principais objetivos abrir as portas da área de Tecnologia do Mercado Livre. No artigo de hoje, não nos aprofundamos tanto no técnico mas sim na estrutura organizacional, nos perfis, no processo de contratação e casos de uso de formação de equipes analíticas, compartilhando experiências e reflexões que possam ajudar você e sua equipe no dia a dia da jornada tecnológica.

Fiquem ligados em nossa página com novos textos e não deixe de olhar a nossa página de oportunidades !

--

--

Elissa Suzuki
Mercado Libre Tech

I write about leadership, career, data & analytics and Taylor Swift !