Sociedade, caos e complexidade

(Quinto post da série. Veja os outros: Parte 1, Parte 2, Parte 3 e Parte 4.)

 

O argumento principal aqui é bem simples: Modelos matemáticos e computacionais não serão  “a última palavra” nas ciências do comportamento humano.


Seção 1 – O Demônio de Laplace e o Relógio de Einstein

Imagine que por um segundo você soubesse exatamente onde estão todas as coisas que existem no universo, bem como a dirA-Clockwork-Orange-a-clockwork-orange-18133446-1024-768eção para onde se movem, suas velocidades e acelerações relativas — tudo. E agora? Sabendo de todas essas coisas seria possível prever os próximos estados, o futuro? O universo se comportaria como uma mesa de bilhar em que, teoricamente, é possível saber exatamente o que vai ocorrer com todas as bolas depois da primeira tacada? Noutras palavras, o universo seria um sistema determinístico, fruto de uma cadeia “mecanismística” de causas e efeitos?

Foi exatamente nisso que estava pensando Pierre Laplace quando formulou sua famosa conjectura, bastante conhecida como “Laplace’s Devil“:

“Vemos o estado presente do universo
como efeito dos estados antecedentes e
como causa dos estados que se seguem.
Uma inteligência superior que conhecesse
todas as forças atuantes na natureza em
dado instante, assim como as posições
momentâneas de todas as coisas no
universo, seria capaz de compreender numa
simples fórmula os movimentos dos grandes
corpos assim como dos simples átomos do
mundo…”

— Conjectura de Laplace. Tradução de Eleutério Prado.

Expressão máxima do materialismo determinista, sonho utópico da ciência que têm na Física Newtoniana sua matriz de inspiração. Mas o universo não pára, não sabemos onde estão todas as coisas, nem como se movem etc.

Mas suposição continua guiando, como um horizonte distante, empreendimentos diversos. “Deve haver alguma regularidade, uma lei, uma fórmula, qualquer coisa…”. Os gregos (pitagóricos) acreditavam que a regularidade estava nas formas geométricas e proporções perfeitas subjacentes a todas as coisas. Galileu inaugura uma nova fase, dizendo que a matemática é a língua pela qual Deus escreveu o universo — e Newton de fato desvela o léxico, a sintaxe e a morfologia de boa parte dessa língua. Agora não só a estática (a forma) é regular, mas também o movimento.

Sim… o universo deve mesmo ser esse grande mecanismo. Toda laranja é mecânica, todo orgânico é mecânico; tudo, no fundo, deverá um dia se reduzir à Física. Vamos mais longe: é possível que não haja “alma”, “além”, nada… Nossos processos mentais devem, no limite, se constituir apenas de uma imensa, complexa e incomensurável rede de cadeias causais puramente materiais; consequência da Seleção Natural operando por 3,5 bilhões de anos. Sim! Sim!

Mas não… ainda não sabemos de fato de todas essas coisas. Apenas supomos, temos fé. Confortados e atormentados pelo Demônio de Laplace, observamos o universo acontecendo, como quem observa um relógio fechado:

“Na tentativa de perceber a realidade, nós somos de certa forma como um homem que tenta perceber o mecanismo de um relógio fechado. Esse homem vê o mostrador, os ponteiros e até ouve o tique-taque, mas não tem meios para abrir a caixa. Se o homem for engenhoso, pode imaginar um mecanismo que poderá ser responsável por tudo que observa, mas nunca poderá ter a certeza de que o mecanismo por si imaginado é o único que pode explicar suas observações.”

A. Einsten

(Sei que é brega citar frases “profundas” do Einstein e que muitas delas são fake. Mas essa é verdadeira, eu garanto. E caiu aqui como uma luva).


Seção 2 – O mecanismo da amizade, a matemática dos amantes

Recent-Study-Suggests-Over-85-Of-Social-Media-Users-Cant-Correctly-Solve-Simple-Math-Equation.jpgNa Matemática encontramos o modelo mais simples que encarna as propriedades ansiadas pela Conjectura de Laplace: uma Progressão Aritmética (PA). Veja o exemplo abaixo:

x_{t+1} = r + x_t

Sabendo o valor da primeira realização da sequência ( x_{t} ) e da variação acrescentada em cada iteração (r), podemos deduzir todos os demais pontos. Se x_{0} = 4r = 3, então x_{10} será 34. Ou seja, se sabemos os estados iniciais e as propriedades da variação, uma sequência determinística como essa nos dá qualquer resultado.

As fórmulas da Física clássica funcionam exatamente assim: movimentos através do tempo podem ser compreendidos como sucessões de uma série matemática (às vezes discreta, como uma Progressão Aritmética ou Geométrica simples, dessas que aprendemos na escola; às vezes contínua, delineando variações infinitesimais). Se lançamos uma bola de canhão, ela seguirá uma trajetória em forma de parábola e, sabendo a posição e a velocidade iniciais, podemos saber a posição, aceleração, velocidades horizontal e vertical em todos os pontos. Vocês já notaram isso antes? Aquela famosa fórmula do movimento retilíneo uniformemente variado é parente da PA:

S_t = S_0 + V_0t + \frac{at^2}{2}

A posição em qualquer momento do tempo (S_t) pode ser conhecida se soubermos a posição inicial (S_0), a velocidade inicial (V_0) e a aceleração da gravidade (a). Será que conseguiríamos fazer o mesmo para as ciências sociais? Será que conseguiríamos obter fórmulas do tipo:

PIB_t = PIB_0 + r(t)

Ou então:

DesigualdadeDeGenero_t = DesigualdadeDeGenero_0 + r(t)

Ou mais ainda:

SituacaoDaSociedadeBrasileira_t = SituacaoDaSociedadeBrasileira_0 + r(t)

Será!? Descobrir uma fórmula como essa foi exatamente o feito de Harry Seldon, personagem de Isaac Asimov na série de livros A Fundação. Seldon inventou uma ciência preditiva do comportamento social agregado, a Psychohistory (ou Psico-história), capaz de deduzir estados futuros séculos a frente. Aqueles que acompanharam os livros se lembrarão que seu feito inicial foi justamente descobrir as relações e regras de movimento (as fórmulas, por assim dizer). Mas faltava-lhe determinar os parâmetros iniciais corretos, calibrar o seu modelo (saber o S_0, por assim dizer). Depois de descobertos esses estados iniciais, foi só tocar o play.

A Psychohistory ainda não foi inventada… Mas tentamos elaborar fórmulas daquele tipo o tempo todo. Uma das mais conhecidas, em Economia, é o modelo modelo de Mincer (1958):

log[Y(S)]= log[Y(0)] + rS

Ela diz que o logaritmo da renda de uma pessoa com S anos de estudo é igual ao logaritmo da renda de uma pessoa com zero anos de estudo adicionado do retorno (r) pelos S anos de estudo. Ou seja, é possível “prever” a renda de qualquer pessoa, se soubermos Y(0), r e S. Obviamente as coisas não funcionam bem assim… Por isso, considera-se a existência de uma variação aleatória:

log[Y_i(S)]= log[Y_i(0)] + rS_i + \epsilon_i

Posteriormente, Mincer (1974) incorporou variações devidas ao ciclo de vida e on-the-job training. Sua equação, no formato mais famoso, é:

log[Y_i(S)]= \beta_0 + \beta_1X + \beta_2X^2 + rS_i + \epsilon_i

Na Sociologia, também temos inúmeros exemplos de fórmulas como essa. Vocês encontrarão diversos exemplos no excelente artigo Cumulative Advantage as a Mechanism for Inequality, de DiPrete e Eirich (2005).

Mas os problema são sempre os mesmos:

  • Suposições fortes são feitas com respeito ao funcionamento da sociedade e ao comportamento dos indivíduos. Na primeira versão da fórmula de Mincer, assume-se que todos os indivíduos são homogêneos (idênticos em termos de recursos, oportunidades, acesso ao crédito, preferências etc.) e que a soma dos rendimentos acumulados de todo curso de vida é sempre idêntica. Um indivíduo que não vai à escola, recebe diversas “parcelas” de salários menores. Um indivíduo que vai à escola, deixa de receber vários salários (pois estudava em tempo integral); mas depois é compensado, recebendo parcelas maiores (que são o “retorno” pelo investimento). Mas ambos receberam o mesmo montante. Forçado demais né? O segundo modelo é mais flexível, mas também tem pressupostos absurdos. James Heckman revisou esses pressupostos num incrível artigo.
  • Como obter o valor dos parâmetros? Geralmente o que se faz é estimar empiricamente, através de Estatística/Econometria. O problema é que parâmetros obtidos desta forma não são necessariamente os “verdadeiros”, que estariam por traz do fenômeno. Já falei disso aqui no blog, quando discuti Variáveis Instrumentais e Causalidade (nessa e nessa ocasião).

Seção 3 – A explicação generativista

Thematrixincode99.jpgAgent-based models são uma forma de lidar com esse problema — obviamente, também insuficiente, mas muito mais flexível.

Conseguimos fazer suposições mais “realistas” (agente heterogêneos, racionalidade limitada, informação incompleta, interações locais etc.). Podemos mais facilmente estabelecer dinâmicas que entrelaçam esferas distintas (aspectos demográficos, políticos, econômicos, históricos etc). Podemos estudar a dinâmica — e não apenas os pontos de equilíbrio estáticos  — com muito mais facilidade do que através de Dinâmica Comparativa e uso de equações diferenciais.

O problema, é que, como disse Galileu, Deus escreveu a natureza utilizando a linguagem da Matemática — e não da computação. Economistas e formalistas, dados às equações, não costumam ser muito receptivos aos ABMs. Fórmulas dão elegância, altivez e “cheiro de Ciência”, com C maiúsculo. Quem nunca se encantou com e = mc^2? Três letrinhas e um número — e dentro deles jaz a chave para a bomba atômica e para a viagem interestelar. Algoritmos são atrapalhados, longos, expressos em diversos dialetos (R, Python, C, C++, Java…). E o pior de tudo: não garantem uma resposta única para um mesmo problema. Pessoas diferentes poderiam chegar a implementações completamente díspares.

Entretanto, o método das “Sociedades Artificiais” tem suas vantagens. A primeira delas é estabelecer um novo parâmetro de validação científica: para explicar um fenômeno, é preciso compreender exatamente o funcionamento dos seus mecanismos geradores; tendo compreendido-os, é possível implementá-los em um ambiente in vitro (uma simulação) e observar se os padrões emergentes são os mesmos observados empiricamente. Nas palavras de Joshua Epstein: “If you didn’t grow it, you didn’t explain it”:

Or, in the notation of first-order logic:

epstein
To explain a macroscopic regularity x is to furnish a suitable microspecification that suffices to generate it. The core request is hardly outlandish: To explain a macro-x, please show how it could arise in a plausible society. Demonstrate how a set of recognizable–heterogeneous, autonomous, boundedly rational, locally interacting–agents could actually get there in reasonable time. The agent-based computational model is a new, and especially powerful, instrument for constructing such demonstrations of generative sufficiency.

Epstein

Nesse texto referenciado, Epstein insiste ainda que mesmo nos ABMs, Equações Existem. Mas trata-se de uma outra forma de pensar a modelagem, recursiva.

Pensem nos exemplos de ABM que eu forneci nos três posts anteriores. Em todos eles, as simulações eram, na realidade, loops. Ou seja, eram passos discretos que produziam resultados que alimentavam as rodadas posteriores. Cada rodada tomava como input o resultado da rodada anterior. Podemos então pensar que os parâmetros são um vetor de inputs x e que um passo da simulação é uma função h(x). Deste modo, o resultado depois de duas iterações seria:

h(h(x)))

E assim por diante:

h(h(h(x))))h(h(h(h(x))))), …

Na realidade, o argumento de Epstein é bem mais interessante e completo. Ele mostra que a representação algorítmica de uma função em uma máquina de Turing (i.e. um computador) tem um equivalente matemático. Mas vou deixar as tecnicalidades excessivas de lado neste post.

De todo modo, a lógica é algo semelhante à de uma série, em que o input no tempo t+1 é fruto de operações ocorridas no tempo t. Um ABM é, no final das contas, uma série ou sequencia matemática, parente da PA — ainda que complicações adicionais advindas de processos estocásticos possam advir.


Seção 4 – O Caos

butterfly-effect

É claro que todo mundo já ouviu falar no tal “Efeito borboleta” (ou, no mínimo, já viu aquele filme horrível com o Ashton Kutcher). Uma borboleta bate asas na China hoje e pode provocar desastres naturais nos Estados Unidos séculos ou milênios depois. Segundo a visão de mundo subjacente a essa ideia, pequenas ações têm grandes consequências não premeditadas; o mundo seria um grande emaranhado de causas e efeitos, tão gigantesco em sua complexidade, que às vezes partes que pensamos estar completamente desconectadas, na realidade, demonstram estreita relação. É um caos.

No entanto, em Matemática a noção de Caos têm origem no estudo de séries, como a PA e a PG. Descobriu-se uma família muito peculiar de funções cujo comportamento não se assemelhava nada antes visto. Tudo começou com uma funçãozinha humilde e aparentemente simples:

x_1 = rx_0(1 - x_0)

Fácil, né? Você insere um valor para x_0 e obtém um valor para x_1. Um procedimento simples, de input e output. Mas temos que definir um valor para r antes.

O físico e blogueiro Ricardo Marino fez um fantástico post sobre esse assunto no seu Todas as Configurações Possíveis, quando o matemático brasileiro Artur Ávila recebeu a Medalha Fields, o “Nobel da Matemática”, por ter desenvolvido trabalhos justamente na área de Sistemas Dinâmicos e Teoria do Caos (ninguém melhor que um brasileiro pra falar de caos, afinal). Vou reproduzir aqui algumas citações e gráficos do post dele.

Vejamos o que acontece quando começamos no valor x0=0,e com r=1,2. Primeiro calculamos o próximo passo: x1=r.x0(1x0) =1,2.0,1(10,1)=0,108. Para calcular o próximo passo, continuamos com a regra: x2=r.x1(1x1) =1,2.0,108(10,108)=0,1156032. Não vou escrever linha por linha, mas um gráfico revela o futuro dessa conta, ela converge para um valor específico.

avila_1

[…] Veja o que acontece quando trocamos r por 3,1.

avila_2

Com esse valor de r, o sistema não converge para um valor, mas para dois valores. Esse comportamento não é lá muito normal, mas piora, veja o que acontece quando colocamos r=3,5.

avila_3

[…] Quando chegamos a r=3,7, na verdade bem antes disso, torna-se completamente impossível prever os valores desses sistema. O único jeito de obter o valor na centésima iteração é calcular todas as noventa e nove anteriores. Veja como fica nosso gráfico para r=3,7.

avila_4

Esse é o caos: um sistema determinístico, mas de comportamento imprevisível (se não sabemos as condições iniciais). Saindo da metáfora, o verdadeiro “efeito borboleta” é o seguinte: alterações mínimas no parâmetro r da equação (principalmente depois que ele ultrapassa 3,7) ou no valor inicial x_0 provocam mudanças absurdas na série. Qualquer coisa pode acontecer. Com r=4 e início em x0 = 0,6, temos:

a.png

Retirado dos slides da Aula 3 da disciplina “Economia e Complexidade”, ofertada pelo Prof. Eleutério Prado na pós-graduação em Teoria Econômica da FEA/USP (2014)

Laplace não viveu pra ver. Ele faleceu em 1827 e a Teoria do Caos só começou a ser desenvolvida de verdade depois de Poincaré, a partir de 1880. Certamente teria tomado um baque.

As implicações epistemológicas e ontológicas da existência de sistemas assim são trágicas e assustadoras. E se o universo, esse relógio fechado, for, na realidade, um sistema caótico? Agora, depois de 14 bilhões de anos, infinitas “rodadas” já aconteceram… Será que conseguiríamos de fato abstrair seus mecanismos de funcionamento e parâmetros iniciais para que fosse possível prever futuros estados?

Não precisa nem queimar a pestana com isso. A resposta é um óbvio e categórico NÃO. E esta não é apenas uma questão de (falta de) desenvolvimento da Ciência. Todo modelo científico é como um mapa. E todo mapa é uma simplificação. Para que fosse tão detalhado quanto a própria realidade, deveria ser tão grande quanto ela. Um modelo capaz de explicar todo o universo deveria ser do mesmo tamanho ou maior que o próprio universo. Esse nem é um problema de Sistemas Dinâmicos e Teoria do Caos. É uma impossibilidade lógica.

Mas se o caso é modelar e compreender partes mais circunscritas e restritas, a questão sobre o caos se coloca. Seria a sociedade um sistema caótico? Aparentemente, as Ciências Sociais enfrentam muito mais dificuldades em encontrar regularidades e padrões gerais precisos. Nossos fenômenos são tão instáveis, que não permitem a fácil matematização. A não ser que assumamos agentes homogêneos, informação completa, racionalidade perfeita etc… Mas se o caso não é esse, estamos muito longe do padrão de ciência estabelecido pela Física. Não é somente a lacuna de formação em Exatas por parte dos sociólogos e cientistas políticos: matemáticos, físicos e cientistas da computação que migraram pra cá ainda não conseguiram fazer muitas revoluções… É um caos.

ABMs são mais uma vela no meio dessa escuridão. Contudo, ainda não sabemos muito bem onde estamos.


Seção 5 – A aleatoriedade

randombitmap

O Caos é um golpe contra a vontade de desvelar os mecanismos determinísticos do mundo, essa laranja mecânica. O golpe final é a aleatoriedade ontológica. Segundo essa perspectiva, nenhum fenômeno é guiado por leis determinísticas. Eles ocorrem apenas com alguma probabilidade. A ideia é a seguinte: se você jogar uma bola para o alto, ela tem ou não a possibilidade de cair… certamente é mais provável que ela caia. Mas vai que…

Parece absurdo, mas é exatamente isso o que ocorre com as partículas sub-atômicas — e caracteriza bastante o ramo chamado Física Quântica. Não sabemos exatamente onde os elétrons estão… mas conhecemos “zonas de probabilidade”, onde é mais frequente encontrá-los; são os chamados orbitais. A Física Quântica deixou todos tão atônitos que Einstein (que inadvertidamente havia ajudado a fundá-la), declarou: “Deus não joga dados” (querendo dizer que essa concepção de um “mundo probabilístico”, ao invés de determinístico, era absurda). Deus, na verdade, desde Galileu, todos sabem, resolve equações diferenciais — que absurdo pensar diferente, oras!

A aleatoriedade quântica é, atestadamente, um componente do fenômeno em si, e não um erro de medida ou fruto da insuficiência do conhecimento. Ao menos na Física subatômica. Com isso, mesmo que tivéssemos todas as informações requeridas pela conjectura de Laplace, não seria possível prever o futuro. Choques aleatórios acumulados (um random walk) nos levariam para qualquer lugar, no longo prazo.

Mas e no resto dos fenômenos do mundo? E na sociedade? Onde reina a aleatoriedade ontológica? Durma com um barulho desses…


Seção 6 – De onde viemos e para onde vamos

Os ABM estão muito longe de serem verdadeiramente “Sociedades Artificiais” completas e num sentido lato. Não somos ainda capazes de construir uma Matrix ou algo do tipo. Falta-nos conhecimentos substantivos sobre o comportamento humano, capacidades computacionais e um monte de outras coisas. Mas o caos e a aleatoriedade lançam desafios adicionais: ainda que fossemos capazes de tamanho empreendimento, a completa previsão do comportamento humano dificilmente seria possível (não estou sequer discutindo se seria desejável).

Modelos científicos de explicação são parciais. A totalidade é incomensurável e inabarcável (ainda que alguém de matriz marxista possa discordar…). Assumo que não haverá “a” equação do comportamento humano, nem a Matrix, nem a Psychohistory. Modelos matemáticos e computacionais são úteis, porém não são  e não serão  “a última palavra”.

Quem, de três milênios, não é capaz de se dar conta, vive na ignorância, na sombra, à mercê dos dias, do tempo.

— Goethe

Anúncios