Na semana que passou tivemos a oportunidade de participar de uma banca de tese de doutorado relacionada com a monetização de dados. Este é um tema que está ganhando importância global, e vem sendo tratado, grosseiramente, de duas maneiras complementares. De um lado encontram-se aqueles que procuram ter uma perspectiva mais gerencial, organizacional e comercial; de outro, estão aqueles que estão buscando os fundamentos mais técnico-analíticos, com certo grau de complexidade, mas que, no limite, tendem a apresentar soluções mais universais e escaláveis.

Na primeira perspectiva podemos encontrar o livro recente intitulado “Data Is Everybody’s Business: The Fundamentals of Data Monetization, publicado por experientes profissionais do MIT Sloan Center for Information Systems Research (MIT/CISR). Para os autores monetização de dados é uma atividade de negócios central tanto para organizações comerciais quanto não comerciais, e, dentro das organizações, é crítico ter um amplo suporte em sua busca.

Neste livro os autores oferecem um modo claro e engajador para as pessoas em toda a organização entenderem a monetização dos dados, e como fazê-la acontecer. Eles identificam três maneiras viáveis de converter dados em dinheiro – melhorar o trabalho com dados, colocar invólucros em produtos com dados, e vender ofertas de informações – e explicam quando perseguir cada e como ter sucesso.

Na segunda perspectiva (a da nossa arguição da tese acima referida) procuramos destacar o estado da arte do conhecimento econômico sobre tema, apontando tanto para a evolução histórica da análise de onde vem o “valor das coisas” (para os Mercantilistas, o Comércio; para os Fisiocratas, a Agricultura; para os Clássicos, a partir de Adam Smith, o Trabalho Humano na Era da Indústria; para os Neoclássicos/Marginalistas, as Preferências: “value in the eyes of the beholder”), quanto para as recentes tentativas de resposta para a seguinte questão: de onde provém/advém o valor nos tempos atuais?

Os economistas mundo afora estão muito atentos a esta nova era onde a tecnologia é dominante, e onde a tecnologia da informação tem uma proeminência. Sendo assim, alguns grupos de pesquisa têm se constituído globalmente para tratar desta temática, e dentro dela alguns grupos estão concentrando a atenção na Economia dos Dados (afinal, como popularizado: “Data is the new Oil!”).

Dentre os grupos que conhecemos, um que podemos destacar é o da Profa. Laura Veldkamp, Professora de Finanças da Columbia University´s Graduate School of Business. Em sua página na web é possível encontrar uma série de trabalhos que ela vem desenvolvendo sobre o tema. Mas aquele que apontei na banca, “6 approaches to valuing data”, é o mais simples de todos, e o que mais aponta diretamente (para o grande público) em direção a um resumo dos principais enfoques que os diversos grupos de pesquisa no mundo estão se concentrando.

Com este artigo se tem uma boa ideia de onde ela parte, ou seja, da natureza econômica dos dados, marcadamente que os dados são um subproduto e são um preditor da atividade econômica. E ela dá importância a isso em função do que ela entende como a “data economy”, representada pelo modelo de “feed back loop of increasing returns” na figura do texto.

Além destas observações conceituais introdutórias, comentamos também sobre alguns pontos conceituais do texto da tese. Um deles nos remeteu a algumas das características econômicas dos dados que merecerem atenção especial, tais como a) dados são não-rivais; b) dados envolvem externalidades; e c) dados são parcialmente excludentes (ver tratamento destas características em trabalho do Fundo Monetário Internacional - FMI: “The Economics and Implications of DataThe Economics and Implications of Data: An Integrated PerspectiveAn Integrated Perspective”).

Em outra parte do texto, fomos remetidos aos trabalhos do economista Albert Menkveld, particularmente ao seu conceito inovador de “Non-Standard Errors”. Segundo este autor, em Estatística amostras são derivadas de uma população em um data-generating process (DGP). Erros padrão, então, medem a incerteza em parâmetros da população. Em Ciência, evidência é gerada para testar hipóteses em um evidence-generating process (EGP). Logo, ele e seus colegas defendem que “EGP variation across researchers adds uncertainty: Non-standard erros (NSEs)”. Ou seja, o próprio processo de geração de evidências cria incertezas!

Menkveld e colegas chegaram aos NSEs a partir da discussão de variabilidade em julgamento humano em termos de “noise” (ruído), introduzida pelo Prof. Daniel Kahneman (Prêmio Nobel de Economia de 2022 e criador da área de Behavioral Finance) no livro “Noise: A Flaw in Human Judgement”. E por que isto é importante?

Se se pretende criar métodos e técnicas para valoração e monetização de dados, é fundamental assumir que diferentes agentes irão considerar os mesmos dados (ou bases de dados) de diferentes formas e juízos. Sendo assim, considerar os NSEs é um requisito fundamental nas amostras de dados selecionadas, e no impacto que eles podem trazer nas inferências a serem extraídas a partir das amostras.

Em resumo, a valoração e a monetização dos dados estão vindo para ficar, seja do ponto de vista gerencial, organizacional e comercial, seja de um enfoque mais fundamentalista/técnico. Afinal, dados estão se tornando a mais nova fonte de valor nas economias contemporâneas!

Se sua empresa, organização ou instituição deseja saber mais sobre valoração e monetização de dados, não hesite em nos contatar!