O uso da Estatística tem se tornado cada vez mais comum no mundo atual. Muito se fala sobre Ciência de Dados, Big Data e outros temas relacionados. Isso não deve causar espanto, pois a disponibilidade de dados nunca foi tão grande. A obtenção de dados tem se tornado mais fácil e barata com o crescimento exponencial da tecnologia. Mas, afinal, o que é a Estatística?
É comum ver definições como a seguinte: Estatística é o conjunto de técnicas que permite, de forma sistemática, coletar, organizar, descrever, analisar e interpretar dados oriundos de estudos e experimentos. Outras definições parecidas são comuns: a Estatística é um conjunto de técnicas para analisar dados e auxiliar a tomada de decisão; ou é a ciência que usa a teoria probabilística para tirar conclusões sobre uma população a partir de amostra; ou que usa a teoria probabilística para estudar a frequência de eventos e fazer previsões, entre outras.
Mas em uma aula, ainda na faculdade, conheci a definição que mais uso até hoje. Já tinha se passado metade do curso, quando um professor, na primeira aula de sua disciplina, fez a seguinte indagação: “agora que vocês chegaram ao meio do curso, poderiam definir para mim o que é Estatística”? Começamos a despejar nossas definições de Guia do Estudante e a resposta dele era sempre a mesma: “não é bem isso”. Após o final de nossas tentativas, ele finalmente revelou a definição que achava mais apropriada: Estatística é a ciência que estuda a aleatoriedade.
Essa definição me impressionou pela simplicidade e abrangência, pois a aleatoriedade está presente em quase tudo que nos cerca. Já estava familiarizado com o conceito da aleatoriedade, mas nunca a tinha percebido como um objeto delimitado de estudo, assim como a Biologia estuda os seres vivos, a Física estuda os fenômenos naturais ou a Contabilidade estuda o patrimônio.
Algo típico da Ciência, a resposta a uma pergunta suscita novas perguntas. Você pode estar pensando sobre “o que, afinal, é a aleatoriedade”? A aleatoriedade é uma característica, presente em vários processos da natureza, de fornecer resultados diferentes mesmo submetidos a condições iniciais idênticas. Desde uma moeda que insiste em mudar a face obtida ao ser lançada, ainda que você tente jogá-la da mesma forma, até resultados mais complexos, como o PIB de um país, demonstram exemplos da aleatoriedade. Por mais que se tente controlar o resultado, ainda haverá uma flutuação aleatória.
O conhecimento sobre a aleatoriedade remonta à Antiguidade. Demócrito e Epicuro já filosofavam, em resumo, se a aleatoriedade seria fruto dos fatores desconhecidos e, no fundo, tudo seria determinístico ou se alguma variação ainda existiria mesmo que conhecêssemos todas as variáveis envolvidas nos processos da natureza.
No mundo ocidental, durante a Antiguidade, o assunto ficou no âmbito das discussões filosóficas, não adentrou ao ramo da Matemática, porém há indícios de que os chineses já trabalhavam com o cálculo de probabilidades. Foi apenas a partir do século XVI, que a aleatoriedade começou a ser estudada de forma matemática com o primeiro estudo sistemático sobre como calcular probabilidades do italiano Girolamo Cardano (1501-1576). A partir do XVII, a probabilidade floresceu mais proficuamente com os trabalhos dos matemáticos Blaise Pascal (1623-1662), Pierre de Fermat (1607-1665), Jacob Bernoulli (1667-1748), De Moivre (1667-1754), Pierre Laplace (1749-1827), Friedrich Gauss (1777-1855) e vários outros que não estão mais aqui para reclamar que não foram lembrados. A probabilidade começou a mostrar aplicações interessantes em diversas áreas, mas ainda não tinha aquele rigor que os matemáticos amam, que só veio com os trabalhos do russo Andrei Kolmogorov, no início do século XX.
A partir do século XVIII, começou a popularização do termo Estatística, que deriva da palavra Estado, originária do latim status, que remete a situação atual, condição existente em determinado momento. Houve um maior interesse dos Estados modernos em saber qual era a situação da população e ter um maior controle social, o que aumentou o esforço para coleta e análise de dados públicos.
Entre os séculos XIX e XX, houve um grande desenvolvimento dos métodos inferenciais, que são usados para tirar conclusões sobre a população através de uma amostra. Houve também a consolidação da Estatística como um conhecimento que propicia uma melhor tomada de decisão em ambientes sujeitos à aleatoriedade. David Salsburg escreveu um interessante livro sobre a atuação da Estatística no desenvolvimento da Ciência, The Lady Tasting Tea: How Statistics Revolutionized Science in the Twentieth Century (Uma Senhora Toma Chá… como a estatística revolucionou a ciência no século XX).
Atualmente, com dados cada vez mais abundantes e professionais de diferentes origens se debruçando para analisá-los, têm surgido novas metodologias com objetivos mais específicos: Ciência de Dados, Mineração de Dados, Big Data, Machine Learning, entre outras. Mas o objetivo básico da Estatística, sobre tomada de decisões a partir da análise de dados coletados em ambientes sujeitos à aleatoriedade, continua presente em todas elas, desde a geração de insights da Ciência de Dados até o reconhecimento de padrões da Mineração de Dados. Há um bom tempo, escuto e leio em diversos meios que as profissões relacionadas à análise de dados são as profissões do futuro. Acredito que o futuro já chegou.
Achou interessante para um amigo? Compartilhe!
Ficou com alguma dúvida? Deixe nos comentários!
Saiba mais sobre a nossa consultoria.
O livro citado no texto pode ser obtido clicando aqui.
Estatístico e cientista de dados. Apaixonado por aprender e compartilhar conhecimento nas áreas de estatística, economia, finanças e investimentos. Experiência com modelagem estatística e econométrica para a previsão de demanda no transporte rodoviário de passageiros e ferroviário de cargas; análise econômico-financeira de seguros ferroviários; planejamento amostral para pesquisas de campo e construção de modelos de Machine Learning para a análise de propensão de compra, risco de crédito e detecção de fraude.