Sociedade, caos e complexidade

(Quinto post da série. Veja os outros: Parte 1, Parte 2, Parte 3 e Parte 4.)

 

O argumento principal aqui é bem simples: Modelos matemáticos e computacionais não serão  “a última palavra” nas ciências do comportamento humano.


Seção 1 – O Demônio de Laplace e o Relógio de Einstein

Imagine que por um segundo você soubesse exatamente onde estão todas as coisas que existem no universo, bem como a dirA-Clockwork-Orange-a-clockwork-orange-18133446-1024-768eção para onde se movem, suas velocidades e acelerações relativas — tudo. E agora? Sabendo de todas essas coisas seria possível prever os próximos estados, o futuro? O universo se comportaria como uma mesa de bilhar em que, teoricamente, é possível saber exatamente o que vai ocorrer com todas as bolas depois da primeira tacada? Noutras palavras, o universo seria um sistema determinístico, fruto de uma cadeia “mecanismística” de causas e efeitos?

Foi exatamente nisso que estava pensando Pierre Laplace quando formulou sua famosa conjectura, bastante conhecida como “Laplace’s Devil“:

“Vemos o estado presente do universo
como efeito dos estados antecedentes e
como causa dos estados que se seguem.
Uma inteligência superior que conhecesse
todas as forças atuantes na natureza em
dado instante, assim como as posições
momentâneas de todas as coisas no
universo, seria capaz de compreender numa
simples fórmula os movimentos dos grandes
corpos assim como dos simples átomos do
mundo…”

— Conjectura de Laplace. Tradução de Eleutério Prado.

Expressão máxima do materialismo determinista, sonho utópico da ciência que têm na Física Newtoniana sua matriz de inspiração. Mas o universo não pára, não sabemos onde estão todas as coisas, nem como se movem etc.

Mas suposição continua guiando, como um horizonte distante, empreendimentos diversos. “Deve haver alguma regularidade, uma lei, uma fórmula, qualquer coisa…”. Os gregos (pitagóricos) acreditavam que a regularidade estava nas formas geométricas e proporções perfeitas subjacentes a todas as coisas. Galileu inaugura uma nova fase, dizendo que a matemática é a língua pela qual Deus escreveu o universo — e Newton de fato desvela o léxico, a sintaxe e a morfologia de boa parte dessa língua. Agora não só a estática (a forma) é regular, mas também o movimento.

Sim… o universo deve mesmo ser esse grande mecanismo. Toda laranja é mecânica, todo orgânico é mecânico; tudo, no fundo, deverá um dia se reduzir à Física. Vamos mais longe: é possível que não haja “alma”, “além”, nada… Nossos processos mentais devem, no limite, se constituir apenas de uma imensa, complexa e incomensurável rede de cadeias causais puramente materiais; consequência da Seleção Natural operando por 3,5 bilhões de anos. Sim! Sim!

Mas não… ainda não sabemos de fato de todas essas coisas. Apenas supomos, temos fé. Confortados e atormentados pelo Demônio de Laplace, observamos o universo acontecendo, como quem observa um relógio fechado:

“Na tentativa de perceber a realidade, nós somos de certa forma como um homem que tenta perceber o mecanismo de um relógio fechado. Esse homem vê o mostrador, os ponteiros e até ouve o tique-taque, mas não tem meios para abrir a caixa. Se o homem for engenhoso, pode imaginar um mecanismo que poderá ser responsável por tudo que observa, mas nunca poderá ter a certeza de que o mecanismo por si imaginado é o único que pode explicar suas observações.”

A. Einsten

(Sei que é brega citar frases “profundas” do Einstein e que muitas delas são fake. Mas essa é verdadeira, eu garanto. E caiu aqui como uma luva).


Seção 2 – O mecanismo da amizade, a matemática dos amantes

Recent-Study-Suggests-Over-85-Of-Social-Media-Users-Cant-Correctly-Solve-Simple-Math-Equation.jpgNa Matemática encontramos o modelo mais simples que encarna as propriedades ansiadas pela Conjectura de Laplace: uma Progressão Aritmética (PA). Veja o exemplo abaixo:

x_{t+1} = r + x_t

Sabendo o valor da primeira realização da sequência ( x_{t} ) e da variação acrescentada em cada iteração (r), podemos deduzir todos os demais pontos. Se x_{0} = 4r = 3, então x_{10} será 34. Ou seja, se sabemos os estados iniciais e as propriedades da variação, uma sequência determinística como essa nos dá qualquer resultado.

As fórmulas da Física clássica funcionam exatamente assim: movimentos através do tempo podem ser compreendidos como sucessões de uma série matemática (às vezes discreta, como uma Progressão Aritmética ou Geométrica simples, dessas que aprendemos na escola; às vezes contínua, delineando variações infinitesimais). Se lançamos uma bola de canhão, ela seguirá uma trajetória em forma de parábola e, sabendo a posição e a velocidade iniciais, podemos saber a posição, aceleração, velocidades horizontal e vertical em todos os pontos. Vocês já notaram isso antes? Aquela famosa fórmula do movimento retilíneo uniformemente variado é parente da PA:

S_t = S_0 + V_0t + \frac{at^2}{2}

A posição em qualquer momento do tempo (S_t) pode ser conhecida se soubermos a posição inicial (S_0), a velocidade inicial (V_0) e a aceleração da gravidade (a). Será que conseguiríamos fazer o mesmo para as ciências sociais? Será que conseguiríamos obter fórmulas do tipo:

PIB_t = PIB_0 + r(t)

Ou então:

DesigualdadeDeGenero_t = DesigualdadeDeGenero_0 + r(t)

Ou mais ainda:

SituacaoDaSociedadeBrasileira_t = SituacaoDaSociedadeBrasileira_0 + r(t)

Será!? Descobrir uma fórmula como essa foi exatamente o feito de Harry Seldon, personagem de Isaac Asimov na série de livros A Fundação. Seldon inventou uma ciência preditiva do comportamento social agregado, a Psychohistory (ou Psico-história), capaz de deduzir estados futuros séculos a frente. Aqueles que acompanharam os livros se lembrarão que seu feito inicial foi justamente descobrir as relações e regras de movimento (as fórmulas, por assim dizer). Mas faltava-lhe determinar os parâmetros iniciais corretos, calibrar o seu modelo (saber o S_0, por assim dizer). Depois de descobertos esses estados iniciais, foi só tocar o play.

A Psychohistory ainda não foi inventada… Mas tentamos elaborar fórmulas daquele tipo o tempo todo. Uma das mais conhecidas, em Economia, é o modelo modelo de Mincer (1958):

log[Y(S)]= log[Y(0)] + rS

Ela diz que o logaritmo da renda de uma pessoa com S anos de estudo é igual ao logaritmo da renda de uma pessoa com zero anos de estudo adicionado do retorno (r) pelos S anos de estudo. Ou seja, é possível “prever” a renda de qualquer pessoa, se soubermos Y(0), r e S. Obviamente as coisas não funcionam bem assim… Por isso, considera-se a existência de uma variação aleatória:

log[Y_i(S)]= log[Y_i(0)] + rS_i + \epsilon_i

Posteriormente, Mincer (1974) incorporou variações devidas ao ciclo de vida e on-the-job training. Sua equação, no formato mais famoso, é:

log[Y_i(S)]= \beta_0 + \beta_1X + \beta_2X^2 + rS_i + \epsilon_i

Na Sociologia, também temos inúmeros exemplos de fórmulas como essa. Vocês encontrarão diversos exemplos no excelente artigo Cumulative Advantage as a Mechanism for Inequality, de DiPrete e Eirich (2005).

Mas os problema são sempre os mesmos:

  • Suposições fortes são feitas com respeito ao funcionamento da sociedade e ao comportamento dos indivíduos. Na primeira versão da fórmula de Mincer, assume-se que todos os indivíduos são homogêneos (idênticos em termos de recursos, oportunidades, acesso ao crédito, preferências etc.) e que a soma dos rendimentos acumulados de todo curso de vida é sempre idêntica. Um indivíduo que não vai à escola, recebe diversas “parcelas” de salários menores. Um indivíduo que vai à escola, deixa de receber vários salários (pois estudava em tempo integral); mas depois é compensado, recebendo parcelas maiores (que são o “retorno” pelo investimento). Mas ambos receberam o mesmo montante. Forçado demais né? O segundo modelo é mais flexível, mas também tem pressupostos absurdos. James Heckman revisou esses pressupostos num incrível artigo.
  • Como obter o valor dos parâmetros? Geralmente o que se faz é estimar empiricamente, através de Estatística/Econometria. O problema é que parâmetros obtidos desta forma não são necessariamente os “verdadeiros”, que estariam por traz do fenômeno. Já falei disso aqui no blog, quando discuti Variáveis Instrumentais e Causalidade (nessa e nessa ocasião).

Seção 3 – A explicação generativista

Thematrixincode99.jpgAgent-based models são uma forma de lidar com esse problema — obviamente, também insuficiente, mas muito mais flexível.

Conseguimos fazer suposições mais “realistas” (agente heterogêneos, racionalidade limitada, informação incompleta, interações locais etc.). Podemos mais facilmente estabelecer dinâmicas que entrelaçam esferas distintas (aspectos demográficos, políticos, econômicos, históricos etc). Podemos estudar a dinâmica — e não apenas os pontos de equilíbrio estáticos  — com muito mais facilidade do que através de Dinâmica Comparativa e uso de equações diferenciais.

O problema, é que, como disse Galileu, Deus escreveu a natureza utilizando a linguagem da Matemática — e não da computação. Economistas e formalistas, dados às equações, não costumam ser muito receptivos aos ABMs. Fórmulas dão elegância, altivez e “cheiro de Ciência”, com C maiúsculo. Quem nunca se encantou com e = mc^2? Três letrinhas e um número — e dentro deles jaz a chave para a bomba atômica e para a viagem interestelar. Algoritmos são atrapalhados, longos, expressos em diversos dialetos (R, Python, C, C++, Java…). E o pior de tudo: não garantem uma resposta única para um mesmo problema. Pessoas diferentes poderiam chegar a implementações completamente díspares.

Entretanto, o método das “Sociedades Artificiais” tem suas vantagens. A primeira delas é estabelecer um novo parâmetro de validação científica: para explicar um fenômeno, é preciso compreender exatamente o funcionamento dos seus mecanismos geradores; tendo compreendido-os, é possível implementá-los em um ambiente in vitro (uma simulação) e observar se os padrões emergentes são os mesmos observados empiricamente. Nas palavras de Joshua Epstein: “If you didn’t grow it, you didn’t explain it”:

Or, in the notation of first-order logic:

epstein
To explain a macroscopic regularity x is to furnish a suitable microspecification that suffices to generate it. The core request is hardly outlandish: To explain a macro-x, please show how it could arise in a plausible society. Demonstrate how a set of recognizable–heterogeneous, autonomous, boundedly rational, locally interacting–agents could actually get there in reasonable time. The agent-based computational model is a new, and especially powerful, instrument for constructing such demonstrations of generative sufficiency.

Epstein

Nesse texto referenciado, Epstein insiste ainda que mesmo nos ABMs, Equações Existem. Mas trata-se de uma outra forma de pensar a modelagem, recursiva.

Pensem nos exemplos de ABM que eu forneci nos três posts anteriores. Em todos eles, as simulações eram, na realidade, loops. Ou seja, eram passos discretos que produziam resultados que alimentavam as rodadas posteriores. Cada rodada tomava como input o resultado da rodada anterior. Podemos então pensar que os parâmetros são um vetor de inputs x e que um passo da simulação é uma função h(x). Deste modo, o resultado depois de duas iterações seria:

h(h(x)))

E assim por diante:

h(h(h(x))))h(h(h(h(x))))), …

Na realidade, o argumento de Epstein é bem mais interessante e completo. Ele mostra que a representação algorítmica de uma função em uma máquina de Turing (i.e. um computador) tem um equivalente matemático. Mas vou deixar as tecnicalidades excessivas de lado neste post.

De todo modo, a lógica é algo semelhante à de uma série, em que o input no tempo t+1 é fruto de operações ocorridas no tempo t. Um ABM é, no final das contas, uma série ou sequencia matemática, parente da PA — ainda que complicações adicionais advindas de processos estocásticos possam advir.


Seção 4 – O Caos

butterfly-effect

É claro que todo mundo já ouviu falar no tal “Efeito borboleta” (ou, no mínimo, já viu aquele filme horrível com o Ashton Kutcher). Uma borboleta bate asas na China hoje e pode provocar desastres naturais nos Estados Unidos séculos ou milênios depois. Segundo a visão de mundo subjacente a essa ideia, pequenas ações têm grandes consequências não premeditadas; o mundo seria um grande emaranhado de causas e efeitos, tão gigantesco em sua complexidade, que às vezes partes que pensamos estar completamente desconectadas, na realidade, demonstram estreita relação. É um caos.

No entanto, em Matemática a noção de Caos têm origem no estudo de séries, como a PA e a PG. Descobriu-se uma família muito peculiar de funções cujo comportamento não se assemelhava nada antes visto. Tudo começou com uma funçãozinha humilde e aparentemente simples:

x_1 = rx_0(1 - x_0)

Fácil, né? Você insere um valor para x_0 e obtém um valor para x_1. Um procedimento simples, de input e output. Mas temos que definir um valor para r antes.

O físico e blogueiro Ricardo Marino fez um fantástico post sobre esse assunto no seu Todas as Configurações Possíveis, quando o matemático brasileiro Artur Ávila recebeu a Medalha Fields, o “Nobel da Matemática”, por ter desenvolvido trabalhos justamente na área de Sistemas Dinâmicos e Teoria do Caos (ninguém melhor que um brasileiro pra falar de caos, afinal). Vou reproduzir aqui algumas citações e gráficos do post dele.

Vejamos o que acontece quando começamos no valor x0=0,e com r=1,2. Primeiro calculamos o próximo passo: x1=r.x0(1x0) =1,2.0,1(10,1)=0,108. Para calcular o próximo passo, continuamos com a regra: x2=r.x1(1x1) =1,2.0,108(10,108)=0,1156032. Não vou escrever linha por linha, mas um gráfico revela o futuro dessa conta, ela converge para um valor específico.

avila_1

[…] Veja o que acontece quando trocamos r por 3,1.

avila_2

Com esse valor de r, o sistema não converge para um valor, mas para dois valores. Esse comportamento não é lá muito normal, mas piora, veja o que acontece quando colocamos r=3,5.

avila_3

[…] Quando chegamos a r=3,7, na verdade bem antes disso, torna-se completamente impossível prever os valores desses sistema. O único jeito de obter o valor na centésima iteração é calcular todas as noventa e nove anteriores. Veja como fica nosso gráfico para r=3,7.

avila_4

Esse é o caos: um sistema determinístico, mas de comportamento imprevisível (se não sabemos as condições iniciais). Saindo da metáfora, o verdadeiro “efeito borboleta” é o seguinte: alterações mínimas no parâmetro r da equação (principalmente depois que ele ultrapassa 3,7) ou no valor inicial x_0 provocam mudanças absurdas na série. Qualquer coisa pode acontecer. Com r=4 e início em x0 = 0,6, temos:

a.png

Retirado dos slides da Aula 3 da disciplina “Economia e Complexidade”, ofertada pelo Prof. Eleutério Prado na pós-graduação em Teoria Econômica da FEA/USP (2014)

Laplace não viveu pra ver. Ele faleceu em 1827 e a Teoria do Caos só começou a ser desenvolvida de verdade depois de Poincaré, a partir de 1880. Certamente teria tomado um baque.

As implicações epistemológicas e ontológicas da existência de sistemas assim são trágicas e assustadoras. E se o universo, esse relógio fechado, for, na realidade, um sistema caótico? Agora, depois de 14 bilhões de anos, infinitas “rodadas” já aconteceram… Será que conseguiríamos de fato abstrair seus mecanismos de funcionamento e parâmetros iniciais para que fosse possível prever futuros estados?

Não precisa nem queimar a pestana com isso. A resposta é um óbvio e categórico NÃO. E esta não é apenas uma questão de (falta de) desenvolvimento da Ciência. Todo modelo científico é como um mapa. E todo mapa é uma simplificação. Para que fosse tão detalhado quanto a própria realidade, deveria ser tão grande quanto ela. Um modelo capaz de explicar todo o universo deveria ser do mesmo tamanho ou maior que o próprio universo. Esse nem é um problema de Sistemas Dinâmicos e Teoria do Caos. É uma impossibilidade lógica.

Mas se o caso é modelar e compreender partes mais circunscritas e restritas, a questão sobre o caos se coloca. Seria a sociedade um sistema caótico? Aparentemente, as Ciências Sociais enfrentam muito mais dificuldades em encontrar regularidades e padrões gerais precisos. Nossos fenômenos são tão instáveis, que não permitem a fácil matematização. A não ser que assumamos agentes homogêneos, informação completa, racionalidade perfeita etc… Mas se o caso não é esse, estamos muito longe do padrão de ciência estabelecido pela Física. Não é somente a lacuna de formação em Exatas por parte dos sociólogos e cientistas políticos: matemáticos, físicos e cientistas da computação que migraram pra cá ainda não conseguiram fazer muitas revoluções… É um caos.

ABMs são mais uma vela no meio dessa escuridão. Contudo, ainda não sabemos muito bem onde estamos.


Seção 5 – A aleatoriedade

randombitmap

O Caos é um golpe contra a vontade de desvelar os mecanismos determinísticos do mundo, essa laranja mecânica. O golpe final é a aleatoriedade ontológica. Segundo essa perspectiva, nenhum fenômeno é guiado por leis determinísticas. Eles ocorrem apenas com alguma probabilidade. A ideia é a seguinte: se você jogar uma bola para o alto, ela tem ou não a possibilidade de cair… certamente é mais provável que ela caia. Mas vai que…

Parece absurdo, mas é exatamente isso o que ocorre com as partículas sub-atômicas — e caracteriza bastante o ramo chamado Física Quântica. Não sabemos exatamente onde os elétrons estão… mas conhecemos “zonas de probabilidade”, onde é mais frequente encontrá-los; são os chamados orbitais. A Física Quântica deixou todos tão atônitos que Einstein (que inadvertidamente havia ajudado a fundá-la), declarou: “Deus não joga dados” (querendo dizer que essa concepção de um “mundo probabilístico”, ao invés de determinístico, era absurda). Deus, na verdade, desde Galileu, todos sabem, resolve equações diferenciais — que absurdo pensar diferente, oras!

A aleatoriedade quântica é, atestadamente, um componente do fenômeno em si, e não um erro de medida ou fruto da insuficiência do conhecimento. Ao menos na Física subatômica. Com isso, mesmo que tivéssemos todas as informações requeridas pela conjectura de Laplace, não seria possível prever o futuro. Choques aleatórios acumulados (um random walk) nos levariam para qualquer lugar, no longo prazo.

Mas e no resto dos fenômenos do mundo? E na sociedade? Onde reina a aleatoriedade ontológica? Durma com um barulho desses…


Seção 6 – De onde viemos e para onde vamos

Os ABM estão muito longe de serem verdadeiramente “Sociedades Artificiais” completas e num sentido lato. Não somos ainda capazes de construir uma Matrix ou algo do tipo. Falta-nos conhecimentos substantivos sobre o comportamento humano, capacidades computacionais e um monte de outras coisas. Mas o caos e a aleatoriedade lançam desafios adicionais: ainda que fossemos capazes de tamanho empreendimento, a completa previsão do comportamento humano dificilmente seria possível (não estou sequer discutindo se seria desejável).

Modelos científicos de explicação são parciais. A totalidade é incomensurável e inabarcável (ainda que alguém de matriz marxista possa discordar…). Assumo que não haverá “a” equação do comportamento humano, nem a Matrix, nem a Psychohistory. Modelos matemáticos e computacionais são úteis, porém não são  e não serão  “a última palavra”.

Quem, de três milênios, não é capaz de se dar conta, vive na ignorância, na sombra, à mercê dos dias, do tempo.

— Goethe

Anúncios

O espaço de similaridade das pesquisas centradas no ator

[Post de Daniel Little, publicado originalmente em inglês no blog Understanding Society. Tradução para o Sociais & Métodos feita por Thiago Rodrigues Oliveira]

im1

im2

Há um determinado número de abordagens no estudo do mundo social que conferem prioridades especiais aos indivíduos em contextos sociais. A Teoria da Escolha Racional (TER) e a Teoria dos Jogos (Becker, Harsanyi) buscam compreender eventos sociais como o resultado de estratégias e cálculos de atores racionais. A Sociologia Centrada no Ator (SCA) e a teoria pragmatista buscam adentrar em um conhecimento profundo dos quadros e dos modos de ação dos atores (Goffman, Gross). A Sociologia Analítica (SA) busca resolver a lógica do barco de Coleman ao mostrar como fatores sociais de nível macro influenciam o comportamento de indivíduos e como fatores de nível macro resultam de interações entre indivíduos no nível micro (Hedström, Yilikoski). E agent-based models (ABM) trazem sistemas computacionais para representar as formas complexas de interação que ocorrem entre indivíduos levando a eventos sociais (Axelrol, Manzo).

Essas quatro abordagens parecem seguir uma mesma estratégia básica: deduzir eventos sociais a partir do que sabemos sobre os modelos de ação e da composição dos indivíduos que produzem o contexto social. É tentador ver essas quatro formulações distintas como a mesma abordagem básica. Mas isso seria um erro. A distância científica entre Hedström e Goffman, ou entre Goffman e Becker, é grande. TER, SCA e SA trazem pressupostos diferentes para o estudo de atores e diferentes pressupostos sobre o que a explicação social demanda. São distintos paradigmas de pesquisa que geram tipos de produtos de pesquisa qualitativamente distintos. E ABM é uma ferramente que pode ser empregada em cada um desses quadros, mas que melhor se adequa à TER e à SA.

Essa figura quer dizer que abordagens centradas no agente tem mais coisas em comum umas com as outras do que com outras importantes estratégias de metodologias de pesquisa em ciências sociais. É possível codificar essas intuições de alguma maneira? E é possível listar as relações lógicas e pragmáticas que existem entre essas abordagens?

Segue aqui uma tabela que representa alguns dos principais pressupostos metodológicos e ontológicos de cada um desses quadros de pesquisa:

Sociologia Centrada no Ator Sociologia Analítica Teoria da Escolha Racional
Eventos sociais derivam de ações de atores socialmente constituídos em relação uns com os outros Explica eventos como o resultado agregado de ações e interações de indivíduos intencionais Indivíduos se comportam como agentes economicamente racionais. Explica eventos como o resultado agregado dessas ações
Atenção às “grandes” teorias do ator Quadro desejo-crença-oportunidade para atores Racionalidade econômica restrita: preferências consistentes e maximização das utilidades
Atores são formados por relações sociais nas quais eles desenvolvem Modelos causais; comprometimento com a abordagem de mecanismos causais Modelos de equilíbrio: comprometimento com soluções matemáticas de problemas de escolha bem definidos
Contas narrativas do desenvolvimento de eventos sociais geram ações dos atores Preferência pelo barco de Coleman: explicação acontece do micro ao macro e do macro ao micro A Teoria dos Jogos é usada para representar interações entre agentes racionais
Agnóstica sobre fundamentos micro Fortemente associada aos fundamentos micro Fortemente associada aos fundamentos micro

Como se pode pensar as relações que existem entre essas abordagens de pesquisa? Muitas possibilidades existem. O primeiro diagrama representa um espaço de abordagens de pesquisa a tópicos de sociologia em ternos de um diagrama de Venn. U é o universo de de abordagens de pesquisa. A, B, C, e D são abordagens que caem dentro de “Sociologia Analítica”, “Teoria da Escolha Racional”, “Sociologia Centrada no Ator” e “Agent-Based Models”. Cada uma dessas famílias de abordagens de pesquisa foi discutida em posts anteriores, linkados acima. A sobreposição nos conjuntos devem representar a intersecção entre os grupos selecionados: abordagens centradas no ator que usam pré-requisitos da teoria da escolha racional; abordagens da sociologia analítica que usam pré-requisitos da SCA; esforços de pesquisa nos três conjuntos que usam modelos baseados no agente; etc.

O segundo diagrama traz um esforço inicial de identificar aspectos que distinguem essas abordagens em uma estrutura dicotômica. SA e TER compartilham as características de fundamentos micro, enquanto a abordagem fenomenológica não. Esta enfatiza a necessidade por “grandes” teorias do ator, enquanto SA e TER favorecem teorias “magras”. SA distingue o pressuposto de Desejo-crença-oportunidade dos pressupostos mais restritos da racionalidade econômica. E SA está mais interessada em identificar mecanismos causais do que qualquer outra alternativa, enquanto a abordagem fenomenológica favorece narrativas e a TER favorece a criação de modelos de equilíbrio. A linha final desse diagrama traz instâncias de paradigmas explicativos das várias abordagens — notas de Goffman sobre comportamentos sociais em um restaurante, o barco de Coleman, a análise formal do dilema do prisioneiro e a tabela de Skocpol de eventos revolucionários.

Aqui segue uma outra abordagem possível, que pode ser descrito como uma visão “ecológica” das metodologias. Em um post recente eu argumentei que nós podemos pensar um quadro de pesquisa como consistindo de um pequeno conjunto de “genes” (pressupostos metodológicos e ontológicos), os quais depois geram o “fenótipo” dos produtos de pesquisa nas mãos dos grupos de pesquisadores (link).

Nesse sentido, SA e TER compartilham um número de genes e estão abertas a emprestar elementos adicionais no futuro por meio de colaboração de pesquisa (contatos inter-espécies). Cada uma compartilha alguns dos principais pressupostos da SCA, mesmo que postulem estratégias explicativas e teóricas bastante distantes daquelas praticadas pela SCA. As duas “espécies” de quadros de pesquisa estão proximamente relacionadas e prometem estar ainda mais no futuro. Mas ao mesmo tempo a SA pode se tornar um genótipo mais robusto para a pesquisa sociológica ao compartilhar componentes genéticos com seu parceiro ecológico, SCA. Finalmente, por essa medida todas essas três abordagens estão a alguma distância das outras principais abordagens na sociologia: survey, pesquisa quantitativa, pesquisa comparativa e estudos organizacionais.

Eu gostaria de argumentar que a sociologia analítica é intelectualmente ampla o suficiente para abranger entendimentos e métodos essenciais da TER e da SCA como teorias distintas do ator, e que ABM é uma metodologia formal que se adequa bem a um componente do modo de explicação da SA, o componente agregativo (o suporte crescente do barco de Coleman). AB, não é limitada a modelos econômicos do ator e pode incorporar tantos detalhes sobre o ator quando o modelador escolher; assim SCA e achados pragmatistas podem ser incorporados a modelos ABM com o possível custo de perda da determinação do evento final.

Como fazer um projeto de mestrado ou doutorado!?

confused.Acadêmicos têm uma dificuldade incrível para “falar simples”. Isto é, transmitir uma mensagem de forma direta, acessível e sem rodeios. Se houvesse um “complicômetro”, certamente atingiríamos seus níveis máximos. Pensar claramente é fundamental para comunicar qualquer ideia. A dificuldade de muitos pesquisadores é articular todo o conteúdo e erudição que adquiriram. São muitas “peças de conhecimento”: às vezes não sabemos se o que estamos montando é apenas um quebra-cabeças ou mais de um… Fica é difícil transmitir mensagens aos nossos leitores e pares, se as coisas não estão resolvidas para nós mesmos.

Os acadêmicos hoje são os “pensadores” de antigamente… Mas fato é que pensamos muito sobre os assuntos que estudamos, mas raramente sobre os rumos e direções para onde estamos seguindo. Refletir sobre essas coisas é um exercício metodológico em seu sentido pleno — muito mais importante e essencial do que a aplicação de qualquer técnica ou ferramenta de pesquisa. Mas dá trabalho…

Pense no seguinte: você consegue explicar num parágrafo, de forma simples, para um leigo, qual é o tema de sua pesquisa? Se a resposta for sim, já é meio caminho andado… Exercícios desse tipo são muito legais pra produzir reflexões metodológicas e levar à clareza de pensamento. Apesar da simplicidade é um exercício difícil. É mais fácil ser complicado do que simples…

Aprendi isso com um grande professor que tive na UFMG, Bruno Wanderley Reis — que é também uma das pessoas mais inspiradoras que já conheci (isso é consenso, perguntem a quem quer que o conheça!). Bruno costuma passar uma lista de perguntas desse tipo (mas muito melhor elaboradas) como exercício em sua disciplina de Metodologia, na Pós-graduação em Ciência Política da UFMG. E gentilmente, ele autorizou a reprodução dessas questões aqui no Blog. Compartilho com todos.

Os bravos que conseguirem fazer o exercício todo certamente não terão muito menos dificuldade na redação de um projeto de pesquisa — ou mesmo na execução da pesquisa planejada.

 

Exercício de metodologia, 2010

 

  1. Em termos bem pessoais, recupere o contexto em que você pela primeira vez se interessou pelo tema sobre o qual pretende hoje escrever sua dissertação de mestrado. Enuncie bem diretamente o assunto de que pretende se ocupar, e descreva brevemente as circunstâncias de sua vida pessoal ou de sua formação profissional em que você travou contato com o tema. (Se você não tiver ainda definido com precisão o assunto de que pretende se ocupar na dissertação, não se preocupe: é legítimo – e quase saudável, a esta altura. Mas invente um, que será o seu problema nesta disciplina.)
  2. “Conhece-te a ti mesmo”, dizia Sócrates. Tente exprimir brevemente as razões pelas quais terá passado pela sua cabeça que aquele era um tema do qual talvez você gostasse de se ocupar. Ele te pareceu “importante” de algum modo, no plano intelectual? Em termos práticos? Em que sentido ele é (ou pode ser apropriado como) um problema?
  3. Enuncie agora o seu “problema”, nos termos mais práticos, concretos, que você conseguir. Relacione o objeto do seu interesse com alguma outra coisa, que te parece, em princípio, poder “explicá-lo”, bem ou mal. Procure ancorá-lo nos problemas práticos, ou nas questões específicas, que o levaram a interessar-se pelo tema de saída. Tente formular o problema como uma pergunta, mas não se preocupe – por enquanto – se o problema (ou a pergunta) te parecer muito “local” ou “específico”.
  4. Agora enuncie a pergunta a ser respondida em sua dissertação (o seu problema) de forma mais disciplinarmente orientada, mais “conceitual”, mais “universal”. Lembre-se: o problema deve ser formulado como uma pergunta. (Duas dicas: I. Diferentemente da questão 3, ao montar sua pergunta aqui procure referir-se menos a fenômenos específicos que a tipos de fenômenos: procure substituir substantivos próprios por comuns, e deixemos a identificação do caso a ser estudado para a hora de detalhar o desenho da pesquisa. II. Tente desde já embutir na pergunta – talvez apoiando-se na literatura existente sobre o seu assunto, mas nunca se detendo nela  – pelo menos duas respostas plausíveis que circulam na paisagem: “Há quem diga isso, mas há também os que afirmam aquilo.” Acredite: a atenção a essas duas dicas vai te ajudar adiante…)
  5. (Semântica.) Reflita descritivamente sobre as categorias conceituais explicitamente empregadas na pergunta. Esboce as taxonomias que contêm as categorias operacionais cruciais da sua pergunta. Em seguida, delineie os atributos que permitiriam classificar algum conjunto de fenômenos ou objetos no interior de cada categoria – ou seja, defina as categorias relevantes no âmbito da sua pesquisa. Não se trata de definir os conceitos tal como aparecem na pergunta, mas antes definir as categorias entre as quais os conceitos (concebidos como “variáveis”) poderão variar. Lembre-se de que este é um exercício metodológico, e não teórico: importa menos o que diz a literatura do que os “valores” que essas categorias podem vir a assumir dentro da sua pesquisa. 
  6. (Sintaxe.) Reflita analiticamente sobre as categorias lógicas empregadas na pergunta. Quais são os nexos que você pretende postular (ou contestar) entre os conceitos envolvidos? Sua pergunta efetivamente os descreve com precisão? (Lembre-se de que a escolha das palavras na formulação de um problema não é trivial, e tem implicações sobre o desenho da pesquisa.) 
  7. Com base nas inevitáveis hesitações que terão permeado o esforço de responder as seis primeiras questões, explicite aqui uma ou duas formulações alternativas do seu problema que você terá chegado a imaginar. (Embora as palavras importem, não basta mudar a redação de modo a deixar o problema intacto. Ao imaginar formulações alternativas, você deve conceber, a rigor, outros problemas analíticos – embora sobre o mesmo tema.) Por que você acabou por preferir a sua formulação? Especule: por que razões alguém poderia vir a preferir alguma das alternativas? 
  8. Agora leia novamente a sua pergunta (tal como formulada na questão 4), e procure identificar nela  um conjunto de proposições que a sua pergunta presume serem verdadeiras (ou seja, identifique algumas premissas de que você parte, explícita ou implicitamente). Justifique a razoabilidade de suas premissas – e, acima de tudo, certifique-se de que elas não estejam respondendo de antemão à sua pergunta (ou, dito de outro modo, que elas não estejam comprometendo previamente o seu trabalho com a aceitação de uma hipótese específica como solução do seu problema). Certifique-se, também, de que as suas premissas não sejam idiossincráticas demais, pessoais demais. Afinal, lembre-se de que, em princípio, o público potencial do seu argumento é constituído justamente por aqueles que compartilham com você suas premissas. 
  9. Isto pode soar trivial, mas não é: lembre-se de que a sua pergunta deve admitir em princípio mais de uma resposta. Quais seriam as respostas logicamente plausíveis que você consegue imaginar para a sua pergunta? Dito de outro modo, enumere algumas hipóteses concebíveis para a solução do seu problema. Feito isso, escolha a sua preferida: seu melhor palpite para a resposta da pergunta, a solução do seu problema em que você preliminarmente acredita (sua hipótese de trabalho). Dentre as demais respostas concebíveis, aponte agora aquela hipótese que você julga contrariar mais crucialmente a sua própria: aquela que você quer contestar – a sua, digamos, “hipótese rival”. Explicite as razões pelas quais você julga que essa outra hipótese é a “rival” crucial da sua hipótese de trabalho. 
  10. Identifique variável independente e variável dependente em sua hipótese de trabalho. 
  11. Agora, antes de prosseguir, detenha-se por um momento e pergunte-se, em termos puramente especulativos, não empíricos: por que você acredita na sua hipótese de trabalho? Por que lhe parece razoável em princípio atribuir o comportamento da sua variável dependente à variável independente que você escolheu? Quais seriam os mecanismos (causais, em princípio) a que você atribuiria a vinculação aqui postulada entre essas duas variáveis? Como eles vinculam as duas variáveis? Em suma, esboce em poucas linhas a teoria subjacente à sua hipótese de trabalho – e, só para não perder o hábito, bem rapidamente, também aquela subjacente à hipótese rival. 
  12. Aponte alguns falseadores potenciais da sua hipótese, ou seja, eventos que, se acontecerem no mundo, te farão acreditar que a sua hipótese está errada. Reflita: esses eventos te fariam acreditar na hipótese rival? 
  13. Faça agora o experimento mental oposto, e imagine falseadores potenciais da hipótese rival. Em que medida eles constituiriam uma corroboração da sua hipótese de trabalho? 
  14. Comece agora (só agora!…) a esboçar o desenho de sua pesquisa. Imagine maneiras de você testar a sua hipótese contra o “mundo real” (ou, melhor ainda, se possível, a testar uma hipótese contra a outra: a sua hipótese de trabalho contra a hipótese rival). O que você buscaria observar no mundo para tentar estabelecer se a sua hipótese de trabalho é verdadeira ou falsa? 
  15. Como você observaria essas coisas? Em outras palavras: imagine uma maneira de você operacionalizar empiricamente as suas variáveis, ou seja, identificar no mundo diferentes formas de se manifestarem as variáveis, diferentes valores que elas podem assumir (isto pode ser uma mensuração quantitativa ou não – mas lembre-se: uma variável deve variar…). 
  16. Esboce o desenho da pesquisa usando “O”s (para diferentes observações da variável dependente) e “X”s (para “tratamento”, ou seja, o momento de operação do nexo entre a variável independente e a dependente), à maneira de Campbell. [Consultar material do curso para a exposição e discussão de variados desenhos de pesquisa – mas nada impede que você invente outro.] 
  17. (Ameaças à validade.) Em que medida o seu desenho elimina explicações (hipóteses) alternativas à sua? Ou seja, digamos que dê tudo certo, e a sua hipótese se veja corroborada pelos dados empíricos produzidos na observação do seu caso: o que poderia, ainda assim, ter saído errado? Que outra hipótese (imaginada ou não nas questões anteriores) seria ainda consistente com os mesmos dados? 
  18. Especifique um desenho alternativo (pode ser inventado ou extraído de Campbell) que também poderia ser usado para se tentar responder à sua questão. E procure assegurar-se de que ele poderia eliminar a maldita hipótese que sobreviveu ao desenho anterior. Lembre-se, porém, de que nenhum desenho elimina todas as conjecturas alternativas… 
  19. Explique em quê o desenho afinal escolhido é melhor e pior que o desenho alternativo. O que é que cada um controla e o outro não? Mais especificamente, avalie em que medida os variados tipos de ameaças à validação são eliminados ou não pelo desenho escolhido (e pelo desenho alternativo). 
  20. Descreva em linhas gerais a pesquisa que você quer fazer – agora com palavras, para uma pessoa normal… Faça de conta que você está escrevendo para um amigo seu que nunca tenha estudado metodologia científica. Faça-o entender a maneira como a pesquisa aqui desenhada te ajuda a resolver o problema que você se propôs. 
  21. Lembre-se de que mecanismos teóricos e nexos causais não são diretamente observados, mas sim inferidos. Em última análise, porém, o que de fato importa do ponto de vista da ciência não é tanto a sobrevivência ou não da sua hipótese, mas sobretudo a teoria que resulta – ainda que de maneira um tanto indireta – do experimento. Situe o seu problema no contexto mais amplo da literatura corrente, e responda: por que a sua pesquisa deveria ser feita?

Decompondo as desigualdades: material para a replicação completa de “Os impactos da geração de empregos…”

a06graf01

Publiquei na RBCS: “Os impactos da geração de empregos sobre as desigualdades de renda: uma análise da década de 2000“. O link na página do Scielo é esse aqui. Pra quem prefere o PDF (que ficou bem bonitinho), é esse aqui.

O texto é em co-autoria com Flavio Carvalhaes, Pedro Herculado F. de Souza e Carlos Costa Ribeiro. Estou muito feliz. Mas produzir todas as análises foi um processo longo e de muito aprendizado…

Nosso trabalho trata do seguinte: houve uma grande geração de empregos na década de 2000 e, simultaneamente, grande queda da desigualdade de rendimentos… Perguntamos então: como esses dois fenômenos se relacionam? Noutros termos: a mudança composicional da força de trabalho (da distribuição dos indivíduos entre as ocupações) exerceu influência sobre o verificado movimento de queda?

Bem… descobrimos que sim, mas esse não foi o fator principal. A geração de empregos foi um fenômeno positivo, que trouxe melhoria dos postos de trabalho existentes (o que pode trazer efeitos de mais longo prazo); mas sua contribuição imediata para o saldo de queda das desigualdades na última década foi de 18%. Outros fatores — principalmente relacionados à educação — foram mais importantes (o que corrobora outras pesquisas já realizadas sobre o assunto). No entanto, justamente porque o “componente ocupacional” não caiu tão depressa quanto os demais, hoje em dia, sua participação na parcela restante de desigualdade de renda (ainda muito alta!) se tornou mais importante. Noutros termos, o movimento de queda trouxe mudança qualitativa da composição das desigualdades.

Para aqueles que se interessam, esse aqui é o link para o material completo de replicação do nosso texto. Tudo foi feito no R. Na pasta principal, há dois scripts que executam toda a análise (não é preciso acessar os demais, localizados dentro das outras pastas). É preciso apenas que o usuário mude, dentro dos scripts, o nome das pastas onde os arquivos estão localizados.

As bases de dados utilizadas podem ser baixadas no site do Centro de Estudos da Metrópole.

Como medir desigualdades: Slide e materiais

Compartilho aqui os slides e os materiais utilizados em duas seções das quais participei na disciplina “Desigualdades: conceito, mensuração e novas abordagens”, ofertada por Márcia Lima no curso de Ciências Sociais da USP.

Achei que o diálogo foi bem legal. Os materiais contém bancos de dados utilizados como exemplos, scripts em R que ilustram e aplicam os conceitos apresentados, bem como dois textos pequenos e introdutórios. O link para baixar tudo é esse aqui. Mas não sei se essas coisas bastam por si mesmas, sem a parte expositiva.

Um adendo sobre os scripts em R:

1 – Há a replicação da regressão de prestigio sócio-ocupacional de Duncan (1961), que serviu, posteriormente de base para a construção de outras escalas contínuas. Inclui um plot em 3d, hehe.

2 – Aplicação de diversas medidas de desigualdade de renda a duas edições das PNADs (acompanha banco de microdados — com apenas algumas variáveis).

3 – Simulações para ilustrar a sensibilidade de cada indicador de desigualdade de renda.

Ciências Sociais Computacionais?

Pesquisar hoje não é como antigamente. Ou, pelo menos, não precisa ser. Uma pesquisa envolve passos básicos:

  1. Imaginar/fazer hipóteses, relacionando-as com teorias e modelos
  2. Tornar essas hipóteses operacionais
  3. Coletar as informações necessárias e analisá-las
  4. Interpretar os resultados, escrever e…  publicar.

Operacionalização, coleta e análise podem grandes “improvements” a partir do contínuo desenvolvimento de softwares e plataformas, bem como da crescente disponibilidade de dados (públicos) na internet.

 

Operacionalização

Governos, empresas e fontes independentes cada vez mais utilizam meios digitais para divulgar seus dados. E inúmeras coisas on-line se tornaram dados que podem ser analisados: informações de redes sociais, estatísticas de acesso a sites etc… O crescimento da quantidade de informação disponíveis na internet é exponencial:

Image

Nunca houve tantos registros do comportamento humano como existem hoje. Com criatividade (e critério), podemos tornar observáveis velhas e novas hipóteses.

 

Coleta

A coleta de dados na internet pode ser chata, demorada e repetitiva. Formulários online, milhares de resultados, falta de padronização…

Com um pouco de domínio de computação, um pesquisador consegue automatizar atividades, acelerando o processo em horas, dias ou semanas. Há softwares específicos que automatizam a coleta e fazem uma “limpeza” das informações. A maioria deles é pago, no entanto.

Mas sem ser um cientista ou engenheiro da computação, é possível programar algumas poucas linhas de código numa plataforma open source (como o R ou Python) e realizar o mesmo trabalho com tanto ou mais eficiência. Um adicional: programação empodera. Num mundo em que a informação é quase toda digital, conhecer sobre linguagens e sistemas significa ter mais acesso e capacidade para analisar o que há disponível.

 

Análise I: poder computacional

Temos computadores mais baratos e melhores a cada ano. E também há softwares mais versáteis e mais capazes. A relação entre capacidade de processamento e preço dobra a cada 18 ou 24 meses!

Image

Hoje, é possível manipular um Censo demográfico com um computador pessoal. Ou, à distância, controlar um “supercomputador” ou acessar um serviço de processamento numa “nuvem” (como a que a Amazon disponibiliza).

 

Análise II: quanti e quali

Uma pesquisa rápida na internet ou nos principais periódicos mostra que o uso de estatística, matemática e simulações é tendência nas maiores Universidades. A aplicação de modelos quantitativos/computacionais foi muito facilitada pelos softwares cada vez mais versáteis e potentes. Além do que, com uma breve busca em fóruns e sites, encontra-se tutoriais, respostas a dúvidas e exemplos.

Certamente os avanços computacionais beneficiaram principalmente os usuários de abordagens quanti, uma vez que o manuseio de elementos matemáticos é muito mais simples (computacionalmente) do que lidar com interpretação de “linguagens naturais”.

Há também softwares para organizar e facilitar a pesquisa qualitativa (Atlas.ti, Nvivo etc.) Mas existem avanços na automação da análise de texto – que requerem um pouco de programação.

 

Ciências Sociais Computacionais?

Esse termo significa simplesmente utilizar métodos “computacionalmente intensivos” para analisar e modelar fenômenos sociais. A noção de “intensivo” varia.

Poder significar organizar transcrições com uso de software e classificá-las depois. Pode ser fazer uma análise de redes, aplicar um modelo estatístico, coletar dados na internet, fazer uso de um grande banco de dados, executar uma grande simulação baseada em agentes…

Num sentido lato, se relaciona com o fato de que computadores são cada vez mais indispensáveis para a pesquisa – e não apenas para a fase de escrita.

Num sentido estrito, implica novos horizontes.