Imagem relacionada

Adoção de algoritmos, NLG e inteligência artificial na imprensa brasileira em âmbito nacional e regional

Resumo

Lucas V. de Araujo
Nama Blog
Published in
18 min readMar 6, 2018

--

Os algoritmos estão presentes em diversas atividades econômicas, sobretudo na área de mídia. No Brasil, todavia, são escassos os estudos que tratam desse tema. Este trabalho avalia o cenário e as possibilidades de utilização dos algoritmos nos meios de comunicação de massa brasileiros. Foi realizada pesquisa exploratória e descritiva na qual foram entrevistados os gestores das maiores empresas de comunicação do Brasil em nível nacional e regional. Dentre os resultados alcançados destacam-se descrença e ceticismo com os algoritmos, aliados à escassa possibilidade de adoção dessa tecnologia no curto e médio prazo, notadamente para produção de notícias.

Introdução

A área de comunicação de massa foi uma das mais afetadas pela expansão da tecnologia. As inovações geradas pelas novas empresas de mídia alteraram a forma como as pessoas se informam, se comunicam, trocam informações (JENKINS et al, 2014). As mudanças tecnológicas, inclusive, puseram em xeque o modelo de negócio dos meios de comunicação tradicionais, pois não se produz, distribui e consome notícias como no século XX (ANDERSON et al, 2012). Nesse bojo emergem tecnologias como o algoritmo, cada vez mais dominante na internet para as mais variadas aplicações, desde motores de busca, redes sociais digitais, comércio eletrônico ou produção de conteúdo (BUCHER, 2012). Por outro lado, as aplicações automatizadas de seleção algorítmica interferem diretamente na vida das pessoas à medida que formam opiniões e criam conceitos (JUST; LATZER, 2016).

A área de mídia está entre as principais aplicações do algoritmo, pois os meios de comunicação de massa automatizaram-se de forma acentuada com a evolução da tecnologia. A busca por ganhos de escala e agilidade nos processos gerou críticas quanto a aspectos ideológicos (MAGER, 2012), de ética jornalística (DE ARAÚJO, 2016) e de transparência (DIAKOPOULOS, 2015). Estudos mostraram que os sistemas computacionais utilizados por muitos meios de comunicação apresentam preconceitos e sentimentos hostis em decorrência do funcionamento baseado em padrões (FRIEDMAN; NISSENBAUM, 1996).

A desconfiança com as novas mídias e os algoritmos cresceu de forma avassaladora após a vitória de Donald Trump na eleição para Presidente dos Estados Unidos em 2016. A proliferação de notícias falsas provocadas por algoritmos teria contribuído para a vitória de Trump (BELL, 2017).

Donald Trump eleito Presidente dos Estados Unidos em 2016

Também há possibilidade de erros, manipulações, interesses comerciais e políticos que podem interferir naquilo que o algoritmo realiza (DIAKOPOULOS; FRIEDLER, 2016).

Não obstante a importância do assunto, no Brasil as discussões em torno dos algoritmos ainda são demasiadas precoces e isoladas. Uma pesquisa realizada no mês de abril de 2017 na Scielo, principal base de periódicos científicos da América Latina, com as palavras-chave “jornalismo” e “algoritmo” não encontrou nenhum texto. Alterando as palavras-chave para “algoritmo” e “transparência” o resultado foi o mesmo. Quando as palavras-chave foram “algoritmo” e “redes sociais” encontrou-se apenas um artigo datado de 2006, antes mesmo da abertura do Facebook ao público externo, portanto, fora do contexto que nesse texto se aplica.

Apesar da notável ausência no debate, o Brasil se destaca no mercado internacional em determinados aspectos. Ao mesmo tempo em que apresenta um número elevado de 70,5 milhões pessoas, equivalente a 1/3 da população, sem conexão com a web (TOZETO, 2017), é o terceiro no mundo em números de pessoas conectadas à internet via smartphone e o quarto país do planeta com o maior número de habitantes conectados à web, em torno de 107,7 milhões (SARAIVA, 2016). Esses números endossam a necessidade do Brasil iniciar um debate em torno dos algoritmos e das mudanças provocadas por eles, assim como das tecnologias adjacentes que estão impactando profundamente não apenas o mercado de mídia, mas principalmente a vida das pessoas. Dessa forma, uma pergunta norteia este artigo:

O que pensam as maiores empresas de comunicação do Brasil, de âmbito nacional e regional, sobre algoritmos e quais as perspectivas dessa tecnologia no país?

Para respondê-la, foi realizada pesquisa qualitativa exploratória e descritiva (BERG, 2004) a partir de entrevistas em profundidade realizadas com gestores dos principais veículos de comunicação do Brasil, assim como dos maiores grupos de mídia regional do país. A partir dos dados coletados junto aos entrevistados, este artigo analisou as respostas por meio do método de análise de conteúdo (STEBBINS, 2001). Além de entrevistas em profundidade, foram coletadas informações dos sítios das empresas na internet e ainda de reportagens na mídia.

Para realizar a pesquisa em campo foram selecionados os seis maiores grupos de mídia do Brasil: Grupo Globo, Grupo Folha, Grupo Estado, Grupo Abril, Sistema Brasileiro de Televisão (SBT) e Grupo Record (mais informações no Anexo A). Nos Grupos Folha e Abril foram os CEOs que responderam a pesquisa. Nas demais empresas, foram diretores ligados a áreas como programação e mídias digitais. Os entrevistados responderam a perguntas relacionadas à percepção que eles tinham dos algoritmos em relação à produção de conteúdo, o que inclui a Natural Language Generation (NLG), e se as empresas nas quais trabalham têm a pretensão de adotar as tecnologias citadas nos próximos cinco anos. As entrevistas foram realizadas presencialmente, por telefone ou por e-mail entre os meses de março e maio de 2017.

Além das empresas de nível nacional, fizeram parte da pesquisa os quatro maiores grupos regionais de comunicação do Brasil: Grupo RBS, Grupo RIC, Emissoras Pioneiras e Rede Bahia. As perguntas dirigidas a esses grupos de mídia foram as mesmas feitas aos outros gestores, assim como a preferência aos CEO´s para participarem da pesquisa e o método de coleta de dados. A escolha pela inclusão de grupos regionais de mídia se deve às inúmeras diferenças culturais, econômicas e sociais que existem dentro do país (WORLD BANK, 2017). Muitos grupos nacionais de comunicação estão presentes em todo o Brasil em virtude do alcance da TV aberta, que é o principal meio de comunicação (SECOM, 2016). Todavia, esses conglomerados de mídia dependem dos grupos regionais para criar um contato mais próximo com o público e ainda para apoiá-los nos investimentos em infraestrutura (CRUZ, 1996). Ademais, pesquisas brasileiras já demonstraram elevadas disparidades entre as regiões no que diz respeito ao desenvolvimento, proteção e amplitude da inovação (ROCHA; DUFLOTH, 2009).

Algoritmos, Inteligência Artificial e NLG

Segundo Gillespie (2014), algoritmos não são necessariamente softwares, pois os algoritmos são procedimentos codificados para transformar dados de entrada em uma saída desejada, com base em cálculos especificados.

Desde as instruções para a navegação na web até as fórmulas matemáticas necessárias para prever o movimento de um corpo celeste através do céu podem ser consideradas um algoritmo. Em linhas gerais, os algoritmos aplicam operações estatísticas para selecionar elementos de dados básicos e dos inputs do usuário. Após a seleção e atribuição de relevância, no qual existem diferentes modos de funcionamento — como classificação ou filtragem dos dados –, há a saída sob diferentes formas, por exemplo, rankings, listas de música, textos. A saída pode ainda operar como entrada adicional para posteriores processos de seleção algorítmica (Latzer et al, 2014). Este aspecto é imprescindível para a compreensão das fronteiras que estão sendo transpostas pelas máquinas. A possibilidade de utilizar os próprios dados para alterar a tomada de decisões é chamada de rede neural, classificada como uma tentativa de emular a estrutura de computação dos neurônios no cérebro humano (KURZWEIL, 2007).

Segundo Kurzweil (2007), as redes são formadas por camadas de algoritmos conectados de forma aleatória. Cada conexão tem uma força sináptica associada que representa a importância dessa conexão, também definida em valores aleatórios. Ainda de acordo com o autor, certo conjunto de inputs, que representam um problema a ser resolvido, gera uma reação nessa rede, cuja saída fornece uma resposta. […] As respostas geralmente não são precisas, mas contribuem para o aprendizado da máquina, que ajusta as forças de cada conexão interneuronal. (KURZWEIL, 2007, p. 114).

Conforme Hinton (1992), a diversidade e a intensidade das conexões são ao mesmo tempo a maior virtude e o maior problema para as redes neurais porque exigem mais cálculos.

Knight (2017), no entanto, alerta para a obscuridade embutida no processamento dos dados nas camadas mais profundas das redes neurais. Desconhecida pelos próprios cientistas que as desenvolveram, as informações fornecidas por essas redes são extremamente importantes para uma série de aplicações comerciais e humanas, porém não se sabe com exatidão como foram criadas. Kurzweil (2007) lembrou que redes neurais e algoritmos evolucionários são métodos emergentes auto organizadores porque os resultados não são previsíveis.

Com o propósito de aprimorar o grau de previsibilidade, muitas redes neurais e algoritmos evolucionários estão interligados com inteligência artificial, fenômeno classificado por Turing (1950) como a capacidade das máquinas desenvolverem uma inteligência similar à humana.

A inteligência “é a capacidade de utilizar recursos limitados de maneira ideal” (KURZWEIL, 2007, p. 110) ou “aquela faculdade da mente pela qual a ordem é percebida em uma situação anteriormente considerada em desordem” (FATMI; YOUNG, 1970, p. 97). A ordem, por sua vez, é fruto da junção de objetivo e informação.

Além de pensar e agir como humanos, são exigidos outros requisitos da máquina dotada de inteligência artificial. Um deles é a capacidade de utilizar a Natural Language Generation (NLG). (RUSSELL; NORVIG, 1995). Dentre os campos de aplicação da NLG estão a geração de previsões meteorológicas textuais a partir de mapas e gráficos, a medicina e também a comunicação (REITER; DALE, 1997). Mapeamento feito por Dorr (2016) identificou 10 empresas no mundo que possuem tecnologia NLG com aplicações jornalísticas. As outras três empresas listadas utilizam a NLG para aplicações diversas, como comércio eletrônico, finanças e indústria de petróleo. Das 10 companhias em condições de utilizar a NLG no jornalismo, apenas uma, a alemã Aexea, elabora textos na língua portuguesa. Essa divisão de mercado se deve, de acordo com Dorr, a fatores como a complexidade da NLG, à disponibilidade limitada de dados, à padronização dos produtos jornalísticos e à visão geral de que os produtos jornalísticos por si só não são rentáveis.

Fonte: Narrative Science

Produção de conteúdo e jornalismo

NLG e algoritmos são tecnologias muito versáteis, indispensáveis no campo da comunicação digital. Notadamente no caso dos algoritmos, a aplicação percorre os mais diversos campos e foram responsáveis por muitas mudanças no mercado de mídia.

No que diz respeito à produção de conteúdo, destaca-se o jornalismo algorítmico, definido como “O processamento inovador que ocorre na interseção entre jornalismo e tecnologia de dados” (GYNNILD, 2014, p. 714, tradução do autor). Também chamado de jornalismo computacional ou automatizado, esse tipo de jornalismo pode ser “a combinação de algoritmos, dados e conhecimentos das ciências sociais para complementar a função de prestação de contas do jornalismo” (HAMILTON; TURNER, 2009, p. 2, tradução do autor). Coddington (2015), porém, acredita que essas definições não distinguem o jornalismo algoritmo de práticas similares. Uma melhor classificação para o autor é uma vertente do jornalismo baseado na computação e no pensamento computacional orientado às práticas de coleta de informações, elaboração de senso e apresentação de informações, ao invés do uso jornalístico de dados ou métodos de ciências sociais de forma mais geral (CODDINGTON, 2015, p. 335, tradução do autor).

Já Graefe (2016) salienta que o jornalismo computacional emprega algoritmos com pouca intervenção humana para gerar notícias para tudo, desde relatórios de crimes até alertas de terremoto e relatórios de lucros da empresa.

O jornalismo automatizado, portanto, não pode ser confundido com jornalismo de dados e tampouco com Computer-assisted Reporting (CAR), derivado da prática de utilização de computadores na busca por dados empíricos. Coddington (2015) lembra que o CAR advém do jornalismo de precisão, técnica desenvolvida por Meyer (1973) na década de 1960, o qual se notabilizou por realizar pesquisas e análises estatísticas baseadas em dados para obter respostas mais claras a questões jornalísticas. Bradshaw (2010) e Bell (2012) destacam que o jornalismo de dados representa a convergência entre vários campos e práticas diferentes, caracterizando-se como uma forma híbrida que engloba análise estatística, computação, visualização e web design e relatórios. Coddington (2015) conclui, assim, que enquanto o CAR está enraizado nos métodos das ciências sociais e na orientação de assuntos públicos do jornalismo investigativo, o jornalismo de dados caracteriza-se por sua abertura participativa e hibridismo cruzado e o jornalismo computacional está focado na aplicação dos processos de abstração e automação à informação.

Desse modo, o jornalismo automatizado representa uma nova fronteira na atividade jornalística e uma inovação radical em termos de produção e distribuição de notícias (GYNNILD, 2014). Nas empresas jornalísticas os algoritmos podem priorizar, classificar e filtrar informações, e ainda envolverem-se no jornalismo em vários estágios, incluindo a distribuição — como nos resultados de busca e métricas de público –, determinando tópicos a serem abordados, ou até mesmo escrevendo as histórias por meio da NLG (CARLSON, 2015). Dörr (2016) salienta que existem poucos estudos que avaliam os impactos da NLG no jornalismo, os quais geralmente se dividem em: a) aproximar o jornalismo algorítmico de outras técnicas baseada em números, como o jornalismo de dados; b) avaliar a produção de notícias por máquinas a partir de um prisma institucional do jornalismo; c) verificar a forma como os leitores avaliam as notícias feitas por algoritmos; ou ainda d) discutir questões éticas. Não obstante a variedade nas opções de abordagem do assunto:

“A ciência da comunicação não tem sido capaz de fornecer um modelo coerente de NLG no jornalismo até agora, bem como identificar as possibilidades e limitações desta tecnologia.” (DÖRR, 2016, p. 2, tradução do autor).

Pavlik (2016) acredita que os algoritmos, a inteligência artificial e a big data possibilitam que jornalistas reinventem a natureza e a prática jornalística por meio da integração de seres humanos e máquinas. Os resultados incluem não apenas redações mais eficientes, mas um aumento da qualidade e produtividade do jornalista humano.

As tecnologias como a NLG e os algoritmos, por sua vez, impõem aos jornalistas novas habilidades, necessárias para a integração do homem ao novo aparato de máquinas dotadas de inteligência. Karlson e Stavelin (2014) avaliaram o jornalismo computacional nas redações da Noruega e concluíram que ele pouco se difere do modo tradicional de fazer jornalismo. A orientação cultural enraizada na tradição do jornalismo reduziu as possibilidades de melhorar a eficiência das redações ou de livrar jornalistas do trabalho técnico mais simples. Para Gynnild (2014, p. 728, tradução do autor), “A questão crítica é a facilitação e o desenvolvimento de uma mentalidade orientada para a inovação entre as pessoas que trabalham profissionalmente no campo”. A atribuição de mudanças de mentalidade, portanto, não se resume aos jornalistas, mas também às empresas de comunicação, que precisam estar propensas a mudanças.

O medo de mudar, notadamente em relação à adoção de algoritmos, foi cientificamente avaliado em experimento realizado por Dietvorst et al (2016). Eles estudaram um aspecto do comportamento humano ligado a um sentimento de repulsa do algoritmo. Segundo os pesquisadores, apesar das inúmeras evidências da superioridade do algoritmo na capacidade de julgamento, quem toma decisões é frequentemente avesso ao uso de algoritmos e opta pelo julgamento menos preciso dos seres humanos. Os pesquisadores salientam que as pessoas reconhecem maior acurácia nas previsões feitas por algoritmos, já que estes baseiam-se notadamente em evidências. No entanto, dizem os estudiosos, “as pessoas usarão algoritmos para fazer previsões desde que possam modificá-las ligeiramente.” (DIETVORST et al, 2016, p. 32, tradução do autor).

Visão das empresas de comunicação brasileiras sobre algoritmos

(Pergunta de Pesquisa)

Os gestores das empresas brasileiras de comunicação entrevistados, de forma geral, mostraram-se céticos e descrentes com os algoritmos. Reconhecem que é uma tecnologia promissora com um grande potencial de crescimento, porém, não vislumbram no curto prazo uma integração maior com a tecnologia. Para o CEO do Grupo Abril, Walter Longo:

“Eu acho que o uso de algoritmos é espetacular não para descobrir o que as pessoas devem consumir, mas o que a pessoa deseja adquirir. Se eu souber nesse momento, através dos algoritmos, o que as pessoas gostariam de adquirir, isso é bom para eu vender mais o produto ou ter mais audiência.”

Os entrevistados mostraram-se preocupados com o custo da tecnologia face aos benefícios que ela gera em termos de redução nos gastos. Notadamente no setor de TV aberta, as empresas brasileiras de comunicação vislumbram reduzidas possibilidades de adoção dos algoritmos. Para o diretor de programação do Grupo Record, Marcelo Caetano:

“Inevitavelmente quem produz conteúdo vai se beneficiar dos algoritmos. Um exemplo é a série House of Cards, da Netflix, que foi criada a partir de decisões tomadas por algoritmos a partir de banco de dados. Porém, estamos ‘tateando’ nesse campo no Brasil. Não temos muito claro como isso interfere no negócio de TV aberta.”

Além do custo elevado, alguns gestores destacaram questões legais e normativas, já que a tecnologia algorítmica altera substancialmente o sistema produtivo de notícias. Além de extinção de empregos, a adoção de algoritmos representa uma mudança nas atribuições dos jornalistas e na própria estrutura dos cargos das redações. De fato, o profissional de imprensa precisará de outro ferramental técnico para trabalhar em parceria com algoritmos e NLG. Segundo Royal (2017), fatores como o trabalho em equipe e a empatia são características indispensáveis face ao grande número de produtos digitais desenvolvidos pelas empresas de mídia. Por outro lado, apenas 11% dos jornalistas estão preparados para análise de dados nos Estados Unidos (WIHBEY; CODDINGTON 2017). No Brasil o cenário deve ser igual ou pior face aos problemas enfrentados na formação profissional e precarização da profissão (BULHÕES, 2016).

Outrossim, é preciso avaliar questões mais amplas, como a reformulação das práticas culturais na criação de notícias (ANDERSON, 2013). Em consonância com o que foi observado em estudos recentes (GYNNILD, 2014; KARLSON; STAVELIN, 2014), a cultura organizacional das principais empresas de comunicação brasileiras não internalizou mecanismos de integração entre humanos e máquinas para a produção de notícias. Apenas um dos entrevistados afirmou de forma categórica que seria positivo o jornalista se concentrar em atividades menos mecânicas, como a apuração dos fatos, enquanto a máquina coletaria dados e produziria textos menos elaborados.

Aliás, um dos aspectos mais abordados entre as empresas participantes desta pesquisa foi o mal que as notícias falsas geram à sociedade.

“Os algoritmos coletam informações na web, como de redes sociais, e distribuem sem apurar se a informação é verdadeira”, disse o editor executivo de conteúdos digitais do Grupo Estado Luis Fernando Bovo.

A objeção é compreensível. As notícias falsas prejudicam um dos principais produtos das empresas de comunicação: as notícias de utilidade pública. A grande maioria dos entrevistados disse que o jornalismo de qualidade é o ativo mais importante das empresas. Para o CEO do Grupo RBS, Eduardo Melzer:

“Algoritmo é adequado para informações simples e de feedback. Não é apropriado para a produção jornalística séria e profissional, que precisa ter discernimento, apuração, visão plural e responsabilidade social”.

Todos os gestores neste estudo apontaram o conteúdo como principal diferencial de suas empresas. Pesquisa recente de Anand (2016), todavia, coloca essa premissa parcialmente em xeque. Ele concluiu que o principal motivo para a queda abrupta de receita dos jornais nos Estados Unidos foi em decorrência da perda de 74% dos valores recebidos com classificados de 2000 a 2010. Embora os classificados não fossem a principal fonte de recursos, eles contribuíram substancialmente na redução do número de pessoas trafegando pelo site, o que também afetou o número de leitores de notícias. Essa diminuição teria sido causada por um efeito de rede: “enquanto a decisão de ler a impressão versus notícias on-line é feita um leitor por vez, a decisão de ir para uma impressão versus um site de classificados on-line é determinada pelas escolhas de muitos” (ANAND, 2016, p. 9, tradução do autor). Para Anand, a internet não acabou com as notícias.

A internet destruiu o subsídio dos classificados. As empresas de mídia não erraram em produzir conteúdo, mas sim em não proteger uma fonte de receita importante.

Essa constatação feita por Anand (2016) deriva, inclusive, de bons resultados colhidos por outras empresas de mídia. Uma delas é o conglomerado escandinavo Schibsted Group. O jornal Svenska Dagbladet, um dos principais periódicos da Suécia e integrante do grupo, integrou totalmente algoritmos à produção, distribuição e exibição de notícias. Além de um robô que projeta a homepage do site, o periódico utiliza algoritmos para distribuir o conteúdo e até para gerenciar os anúncios on-line, prescindindo dos serviços do Google e Facebook (RODRIGUES, 2017).

Home do site: Svenska Dagbladet

Tal aspecto foi fundamental não apenas porque o jornal sueco aumentou a receita gerenciando publicidade no próprio site, mas principalmente porque a empresa criou e fortaleceu uma rede própria de anunciantes, assinantes, leitores e de outros públicos sem relação direta com o veículo. Para Anand (2016, p. 16):

“É surpreendente como muitos gerentes de mídia digital ainda pensam em produtos para clientes individuais e não em gerenciamento de conexões. Isto é ainda mais surpreendente tendo em vista o fato de o consumo dos meios de comunicação sempre ser social”.

A constatação de Anand não invalida a crença dos gestores entrevistados nesta pesquisa, assim como de muitos outros que apostam no conteúdo como principal ativo. O conteúdo produzido pelos veículos de comunicação continua sendo um diferencial, mas sob determinadas circunstâncias. Um exemplo citado pelo próprio Anand é a revista inglesa The Economist. Bastante resistente a mudanças, a empresa obteve aumento no número de assinantes impressos mesmo com o crescimento dos meios digitais. O sucesso da publicação, no entanto, não se deve ao jornalismo investigativo ou a reportagens mais densas e aprofundadas, mas à opinião contundente baseada em fatos e coerência de ideias. A consistência que atrai e cativa leitores foi alcançada, entre outros fatores, porque a revista tem o mesmo perfil há décadas. Os jornalistas não assinam as reportagens e a maioria deles tem a mesma origem acadêmica. Além de formados em Oxford, têm uma visão de mundo similar à da revista (ANAND, 2016).

A forma como a revista The Economist reagiu à ameaça digital foi total diferente da estratégia adotada Grupo Schibsted. Nos idos dos anos 2000 foram tomadas decisões fundamentais como agir rápido, criar empresas menores para gerir negócios diferenciados, oferecer ferramentas iterativas e testar métodos e táticas diferentes. Tais atitudes fazem parte das recomendações básicas de teorias clássicas da inovação Christensen (2012).

Tidd e Bessant (2015) afirmaram que em termos de estratégia para inovação, a chave para o alto crescimento não é necessariamente criar um novo mercado, mas ser o primeiro a desenvolver e explorá-lo. O problema é que nenhuma empresa de mídia brasileira integrante desta pesquisa demonstrou interesse em adotar os algoritmos nos próximos anos.

“A produção de jornalismo de qualidade e de análises em profundidade exigem equipes qualificadas de repórteres, especialistas e articulistas” disse a CEO do Grupo Folha, Maria Judith Brito.

O atraso pode prejudicar ainda mais o setor, que já passa por dificuldades financeiras e assiste ao avanço das empresas de tecnologias.

O fato de duas empresas de mídia terem adotado estratégias diferentes de enfrentamento das empresas de tecnologia e terem obtido sucesso mostra que não há receitas de sucesso, mas sim métodos adequados a cada contexto. Para Bell e Owen (2017), esses métodos estão limitados a dois caminhos: ou as empresas jornalísticas aceitam que estão no negócio de publicidade e buscam ganhar em escala com custos baixos e margem estreita, ou buscam novas fontes de receita além da publicidade e trabalham com orçamento menor. A segunda opção foi a escolha do grupo escandinavo Schibsted, que decidiu que irão manter a independência das empresas de mídia social e motores de busca criando uma rede poderosa e sendo a primeira a implantar inovações. Já a primeira opção foi tomada pelos maiores grupos de mídia do planeta, como o New York Times e o Washington Post, que incorporaram robôs ao método de produção jornalístico New York Times e adotaram estratégias como o paywall para reforçarem as receitas com o leitor digital.

As empresas de mídia brasileiras integrantes dessa pesquisa adotaram a mesma opção que as empresas norte-americanas, mas o resultado não foi positivo. Os 11 maiores jornais diários do Brasil ganharam 88 mil novos assinantes digitais em 2016, mas as edições impressas registraram queda de 162 mil exemplares na tiragem média diária. Do primeiro bimestre de 2015 ao mesmo período de 2017 a diminuição no número médio de exemplares diários foi de 68% em face de um aumento de pouco mais de 10% em assinaturas digitais. Apenas o jornal Folha de S. Paulo apresentou um número maior de assinantes digitais em relação às assinaturas impressas (ANJ, 2017). Assim como o New York Times, a maioria dos jornais brasileiros adotou o paywall como estratégia para aumentar as receitas. No entanto, esse incremento das assinaturas digitais não tem sido capaz de compensar as perdas do setor com anúncios das edições impressas e o baixo faturamento da publicidade digital (ESTARQUE, 2016).

Não obstante a situação das grandes companhias de mídia impressa brasileira seja preocupante, ela é ainda mais temerária para as empresas regionais. Além de dependerem das novas mídias para atingirem seus públicos, ao mesmo tempo em que lutam para rentabilizar seus conteúdos, há uma forte preferência das empresas de tecnologia pelas grandes companhias produtoras de conteúdo. Bell e Owen (2017) chegram a essa conclusão após estudo feito nos Estados Unidos onde foram encontradas muitas dificuldades para os editores de pequenos e médios veículos de comunicação conseguir espaço nas novas mídias. O resultado certamente se aplica a realidade brasileira, já que as redes sociais digitais e motores de busca responsáveis pela distribuição de conteúdo que atuam em solo estadunidense são os mesmos presentes no Brasil. Para Ingram (2015), a melhor estratégia para os meios de comunicação regionais é atuar em nichos, nos quais a incidência da grande mídia é menor.

O conteúdo de qualidade, foco das empresas de mídia brasileiras, não basta. Assim como a estratégia de redes proposta por Arand não trará os resultados esperados caso não sejam tomadas outras providências. O que pode estar faltando é uma estratégia de diferenciação, alguma peculiaridade que a sobreponha sobre os concorrentes.

Conclusão: mudança de mentalidade e P&D

O jornalismo algoritmo é uma tecnologia inexorável. Disso os gestores brasileiros entrevistados concordaram em uníssono. A chave está em como usar essa tecnologia a favor. Talvez seja desenvolvendo sistemas próprios nos quais o algoritmo não só ajude a coletar e selecionar informações, mas também a elaborar textos. Nesse aspecto é importante uma mudança de mentalidade do gestor brasileiro de empresa de mídia. Outra atitude relevante é produzir tecnologia a custos baixos. Para tanto, urge que as empresas de mídia se envolvam de forma mais efetiva com o desenvolvimento de inovação no país. O Brasil é apenas o 46º no ranking mundial de inovação (JAMRISKO; LU 2017) e os investimentos em pesquisa e desenvolvimento (P&D) ainda estão demasiadamente focados em instituições públicas. É possível fazer P&D sem onerar demasiadamente a empresa desde que haja um intercâmbio maior com as universidades, cujos pesquisadores geralmente obtêm resultados expressivos internacionalmente na publicação de artigos, mas não em produzir inovação (MARQUES 2016).

Artigo originalmente publicado na revista Estudos de Jornalismo e Mídia, da Universidade Federal de Santa Catarina em 19 de janeiro de 2018. Referências em: Anexo A.

Siga o Nama Team nas redes sociais:

💻 Facebook 🐤 Twitter 📈 LinkedIn 📷 Instagram 🎬 YouTube 🤖 Website

👨‍💻 Be a Nama Guest Writer 👩‍💻

--

--

Lucas V. de Araujo
Nama Blog

PhD in Communication, Master in Literature, Journalist Professor at the State University of Londrina