Pesquisar é preciso, antecipar é fundamental

Pesquisar é preciso, antecipar é fundamental

Federico Sader*

03 Março 2018 | 03h35

Federico Sader. Foto: Arquivo Pessoal

Novas terminologias surgem nas páginas dos jornais, como inteligência artificial, machine learning, redes neurais e a grande vedete: Big Data.

Em grande parte das menções, são introduzidas como as ‘salvadoras da pátria’. Porém, raramente a principal parte da história é contada: as reais ameaças que essas novas tecnologias trazem ao atual modelo de negócio de segmentos consolidados como, por exemplo, as indústrias varejista e financeira.
Nada melhor para ilustrar este fato do que um recente movimento: a aquisição da Aetna, um dos maiores grupos de seguro de saúde de cobertura global, pela CVS, maior rede varejista de drogarias norte-americanas.

O valor da transação é de aproximadamente US$ 69 bilhões. Os analistas enxergam com bons olhos esse movimento atípico.

Embora sejam mercados correlatos, não seria uma aquisição trivial sob o ponto de vista de sinergias diretas, mas sim um movimento de defesa tática.

Outros especialistas afirmam que o grande motivador é a entrada da Amazon, gigante do setor de E-commerce, no segmento dos medicamentos controlados.

Sentindo a ameaça, a CVS preferiu dar um passo ousado, ao invés de esperar pelas consequências de uma confrontação direta de suas lojas físicas com a Amazon.

Esse e outros inúmeros movimentos similares devem ocorrer nos próximos anos. São sinais claros de que estamos passando por um processo de reinvenção de várias indústrias, incluindo a indústria de informação e de pesquisa de mercado.

Dito isto, gostaria de fazer uma reflexão mais profunda sobre o segmento de pesquisa de mercado, passando pelo seu surgimento até suas perspectivas de futuro.

Em primeiro lugar, é importante frisar que se trata de um setor jovem, que surge no período pós-primeira-guerra mundial nos Estados Unidos, como resposta ao excesso de produção da indústria, que havia sido ativada pela demanda do período da guerra.

A Grande Depressão de 1929 pode ser considerada o marco da consolidação dessa área do conhecimento, pois, até então, toda decisão de negócio girava ao redor de aumento de produção e produtividade.
Todavia, com a crise, o foco mudou para a busca de melhor compreensão da demanda e mais ainda, pela criação de diferenciação dos produtos e serviços.

Neste momento despontaram a mídia e a pesquisa, que formariam alguns anos depois o que viríamos a conhecer como departamento de marketing.

Céu de brigadeiro com ventos de popa. Pode-se dizer que, até a virada do milênio, durante esses mais de 80 anos, houve evolução de metodologias e técnicas de coleta de dados que pautaram toda a indústria de pesquisa.

Nesse ambiente, as organizações de pesquisa sempre estiveram atreladas, quase de forma intrínseca, ao negócio.

O controle e a precisão se traduziram, então, em sinônimos de confiança e qualidade, o que, por fim, acabaram se tornando pontos-chave na escolha dos provedores de pesquisa por seus clientes.

Um profissional exemplar desse campo deveria ter profundos conhecimentos estatísticos, experiência de coleta de dados e capacidade analítica.

A chegada da tormenta. Com a consolidação e a massificação da internet e smartphones no inicio do século XXI, alguns ajustes foram feitos, principalmente quanto ao processo de coleta e transmissão de dados.

Essas tecnologias ajudaram a aumentar a produtividade, ou seja, algo incremental e positivo naquele momento.

Entretanto, com o passar dos anos, mudanças mais profundas e estruturais ocorreram sem que as organizações pudessem controlá-las.

O que parecia ser uma evolução natural passou a se assemelhar a algo mais disruptivo, em um tom de ameaça ao status quo.

Esse fato foi impulsionado por dois vetores centrais: primeiro, a complexidade do mundo aumentou de forma exponencial, com a fragmentação do consumidor, dos mercados e canais de distribuição. Além disso, o consumidor torna-se mais e mais exigente, e passa a buscar produtos e serviços customizados.

Nesse novo ambiente, o custo das organizações para entender a necessidade desse novo público através de metodologias tradicionais passou a ser uma barreira, que foi intensificada pela retração recorrente dos orçamentos destinados à pesquisa, devido ao baixo crescimento da economia mundial. O segundo aspecto é que justamente as metodologias tradicionais perderam eficiência para coletar dados dos consumidores, pois estes já não estão mais dispostos a interagir da forma que estavam antes.

É notório que o estilo de vida atual reduz o interesse das pessoas em participar de pesquisas.
Um exemplo é imaginar quantas pessoas estão dispostas a responder um questionário de cerca de 40 minutos a respeito de seus hábitos de consumo de mídia.

Sem considerar ainda que, com a fragmentação da mídia em inúmeros canais, o entrevistado que estiver disposto a investir 40 minutos de seu tempo, traz a dúvida de quão acurada seria sua memória para conseguir informar ao entrevistador algo que represente a realidade do seu consumo de mídia.

Em suma, o momento atual de pesquisa de mercado é de reinvenção.

É como os vírus que, de tempos em tempos, sofrem mutação, ou as vacinas que perdem sua eficácia e precisam ser desenvolvidas novas versões. Hoje sabemos que é preciso um novo modelo para esse mercado.

Por outro lado, para que isso ocorra, será preciso abrir mão de dogmas sagrados, como o exigente controle de amostras e precisão do dado coletado, sem sentimento de culpa ou incoerência.

Se o cenário mudou, por que não podemos abrir mão de controle das amostrar e mergulhar na grande massa de dados disponível, dando interpretação a elas? O que nos impede?

No Brasil, temos mais de 100 milhões de pessoas conectadas.

Em um minuto, as pessoas enviam 204 milhões de e-mails, são realizadas 3,3 milhões de publicações no Facebook, mais de 29 milhões de mensagens são trocadas no Whatsapp e quatro milhões de vídeos são vistos no Youtube.

Em um mês, são transferidos cerca de 30 hexabytes de informações na internet, de acordo com o Discovery Institute. Não seria um contra-senso, nesse ambiente, enviar pessoas a campo para coletar dados adicionais para saber o que os consumidores pensam de um produto ou marca?

Porém, para viabilizar esta mudança é fundamental que se mude o ‘mindset’ dos vendedores e compradores de pesquisa. Estes precisam acreditar que o trade-off vale a pena. Entre ter um pequeno painel de milhares de pessoas, com fortes controles estatísticos, ou explorar bilhões de dados de milhões de indivíduos com ferramentas sofisticadas que fazem uso de inteligência artificial e machine learning.

Agora, a pergunta-chave é: quem irá dar o primeiro passo? Os provedores de pesquisa ou seus usuários?
Importante deixar claro que, neste momento, não estamos prontos para abrir mão de todos os métodos de pesquisas tradicionais. Apenas que já poderíamos, de forma seletiva, desplugar metodologias que atualmente geram menos valor aos clientes e que ainda existem por um efeito quase que inercial.

Sem dúvida, as organizações que tiverem coragem de propor mudanças e abrir mão de receita para liderar a transformação da indústria terão vantagens significativas.

O que fizemos ontem provavelmente não será o que faríamos hoje.

Vamos supor que se deseja entender o comportamento de consumidores brasileiros e, para isso, temos dois caminhos.

O primeiro é o tradicional, se faz um mapeamento do universo e se desenha uma amostra para coletar dados.

Digamos que temos 10 mil lares para representar os cerca de mais de 67 milhões de domicílios brasileiros e que esta amostra tem controles e erro amostral de 5%. Parece uma boa solução, correto? Há dez anos, eu tinha certeza de que esta era a melhor opção, porém hoje temos outros caminhos. Fazendo um brainstorm, cito algumas possibilidades:

O Facebook tem mais de 100 milhões de usuários ativos em sua base que, dia-a-dia, deixam registrados relações pessoais, percepção sobre marcas e até feedback sobre consumo de produto.

Há sites de e-commerce como Submarino, Casas Bahia, Amazon, Walmart, Saraiva e Buscape, com milhões de registro de compras reais, empresas de telecom possuem comportamento de uso de dados e voz, assim como a localização de seus clientes.

Se cruzarmos esses dados e encontrarmos forma de os calibrar para projetar a população nacional teríamos, sem dúvida, uma solução mais rápida, economicamente mais atrativa e inúmeras vezes mais granular.

Bem, esse pequeno exercício ilustra o oceano de oportunidades a que a indústria está exposta. Sem dúvida algumas organizações já estão se movendo nessa direção.

O Big Data foi tema do último encontro da ESOMAR em Nova York, onde as principais organizações de pesquisa de mercado apresentaram suas soluções nesta área.

Em geral, sua aplicação atual está mais direcionada a um papel adicional aos serviços já disponíveis hoje, e não a algo inovador que soluciona novos problemas ou problemas antigos de forma inovadora.

A impressão que fica é que organizações de fora da indústria tradicional de pesquisa, como as gigantes de tecnologia, e novas organizações como a nossa empresa, Alexandria Big Data, ganharão terreno dentro desse mercado.

Uma frase marcante que escutei de um executivo sênior de mercado há 5 anos: “Hoje gasto grande parte do meu orçamento em entender o que aconteceu e não em prever o que vai acontecer”.

Entre estas e outras, cada dia estou mais seguro que temos o dever de ousar, tentar fazer diferente. Pois fazer o mesmo não é uma opção no presente para aquelas organizações que pretender perpetuar. No presente, portanto, pesquisar é preciso mas antecipar é fundamental.

*Federico Sader é CEO da plataforma tecnológica Alexandria, com longa experiência na indústria de pesquisa de marketing e mídia digital, liderando relacionamento de grandes conglomerados de bens de consumo

Mais conteúdo sobre:

Artigo