Como fazer um projeto de mestrado ou doutorado!?

confused.Acadêmicos têm uma dificuldade incrível para “falar simples”. Isto é, transmitir uma mensagem de forma direta, acessível e sem rodeios. Se houvesse um “complicômetro”, certamente atingiríamos seus níveis máximos. Pensar claramente é fundamental para comunicar qualquer ideia. A dificuldade de muitos pesquisadores é articular todo o conteúdo e erudição que adquiriram. São muitas “peças de conhecimento”: às vezes não sabemos se o que estamos montando é apenas um quebra-cabeças ou mais de um… Fica é difícil transmitir mensagens aos nossos leitores e pares, se as coisas não estão resolvidas para nós mesmos.

Os acadêmicos hoje são os “pensadores” de antigamente… Mas fato é que pensamos muito sobre os assuntos que estudamos, mas raramente sobre os rumos e direções para onde estamos seguindo. Refletir sobre essas coisas é um exercício metodológico em seu sentido pleno — muito mais importante e essencial do que a aplicação de qualquer técnica ou ferramenta de pesquisa. Mas dá trabalho…

Pense no seguinte: você consegue explicar num parágrafo, de forma simples, para um leigo, qual é o tema de sua pesquisa? Se a resposta for sim, já é meio caminho andado… Exercícios desse tipo são muito legais pra produzir reflexões metodológicas e levar à clareza de pensamento. Apesar da simplicidade é um exercício difícil. É mais fácil ser complicado do que simples…

Aprendi isso com um grande professor que tive na UFMG, Bruno Wanderley Reis — que é também uma das pessoas mais inspiradoras que já conheci (isso é consenso, perguntem a quem quer que o conheça!). Bruno costuma passar uma lista de perguntas desse tipo (mas muito melhor elaboradas) como exercício em sua disciplina de Metodologia, na Pós-graduação em Ciência Política da UFMG. E gentilmente, ele autorizou a reprodução dessas questões aqui no Blog. Compartilho com todos.

Os bravos que conseguirem fazer o exercício todo certamente não terão muito menos dificuldade na redação de um projeto de pesquisa — ou mesmo na execução da pesquisa planejada.

 

Exercício de metodologia, 2010

 

  1. Em termos bem pessoais, recupere o contexto em que você pela primeira vez se interessou pelo tema sobre o qual pretende hoje escrever sua dissertação de mestrado. Enuncie bem diretamente o assunto de que pretende se ocupar, e descreva brevemente as circunstâncias de sua vida pessoal ou de sua formação profissional em que você travou contato com o tema. (Se você não tiver ainda definido com precisão o assunto de que pretende se ocupar na dissertação, não se preocupe: é legítimo – e quase saudável, a esta altura. Mas invente um, que será o seu problema nesta disciplina.)
  2. “Conhece-te a ti mesmo”, dizia Sócrates. Tente exprimir brevemente as razões pelas quais terá passado pela sua cabeça que aquele era um tema do qual talvez você gostasse de se ocupar. Ele te pareceu “importante” de algum modo, no plano intelectual? Em termos práticos? Em que sentido ele é (ou pode ser apropriado como) um problema?
  3. Enuncie agora o seu “problema”, nos termos mais práticos, concretos, que você conseguir. Relacione o objeto do seu interesse com alguma outra coisa, que te parece, em princípio, poder “explicá-lo”, bem ou mal. Procure ancorá-lo nos problemas práticos, ou nas questões específicas, que o levaram a interessar-se pelo tema de saída. Tente formular o problema como uma pergunta, mas não se preocupe – por enquanto – se o problema (ou a pergunta) te parecer muito “local” ou “específico”.
  4. Agora enuncie a pergunta a ser respondida em sua dissertação (o seu problema) de forma mais disciplinarmente orientada, mais “conceitual”, mais “universal”. Lembre-se: o problema deve ser formulado como uma pergunta. (Duas dicas: I. Diferentemente da questão 3, ao montar sua pergunta aqui procure referir-se menos a fenômenos específicos que a tipos de fenômenos: procure substituir substantivos próprios por comuns, e deixemos a identificação do caso a ser estudado para a hora de detalhar o desenho da pesquisa. II. Tente desde já embutir na pergunta – talvez apoiando-se na literatura existente sobre o seu assunto, mas nunca se detendo nela  – pelo menos duas respostas plausíveis que circulam na paisagem: “Há quem diga isso, mas há também os que afirmam aquilo.” Acredite: a atenção a essas duas dicas vai te ajudar adiante…)
  5. (Semântica.) Reflita descritivamente sobre as categorias conceituais explicitamente empregadas na pergunta. Esboce as taxonomias que contêm as categorias operacionais cruciais da sua pergunta. Em seguida, delineie os atributos que permitiriam classificar algum conjunto de fenômenos ou objetos no interior de cada categoria – ou seja, defina as categorias relevantes no âmbito da sua pesquisa. Não se trata de definir os conceitos tal como aparecem na pergunta, mas antes definir as categorias entre as quais os conceitos (concebidos como “variáveis”) poderão variar. Lembre-se de que este é um exercício metodológico, e não teórico: importa menos o que diz a literatura do que os “valores” que essas categorias podem vir a assumir dentro da sua pesquisa. 
  6. (Sintaxe.) Reflita analiticamente sobre as categorias lógicas empregadas na pergunta. Quais são os nexos que você pretende postular (ou contestar) entre os conceitos envolvidos? Sua pergunta efetivamente os descreve com precisão? (Lembre-se de que a escolha das palavras na formulação de um problema não é trivial, e tem implicações sobre o desenho da pesquisa.) 
  7. Com base nas inevitáveis hesitações que terão permeado o esforço de responder as seis primeiras questões, explicite aqui uma ou duas formulações alternativas do seu problema que você terá chegado a imaginar. (Embora as palavras importem, não basta mudar a redação de modo a deixar o problema intacto. Ao imaginar formulações alternativas, você deve conceber, a rigor, outros problemas analíticos – embora sobre o mesmo tema.) Por que você acabou por preferir a sua formulação? Especule: por que razões alguém poderia vir a preferir alguma das alternativas? 
  8. Agora leia novamente a sua pergunta (tal como formulada na questão 4), e procure identificar nela  um conjunto de proposições que a sua pergunta presume serem verdadeiras (ou seja, identifique algumas premissas de que você parte, explícita ou implicitamente). Justifique a razoabilidade de suas premissas – e, acima de tudo, certifique-se de que elas não estejam respondendo de antemão à sua pergunta (ou, dito de outro modo, que elas não estejam comprometendo previamente o seu trabalho com a aceitação de uma hipótese específica como solução do seu problema). Certifique-se, também, de que as suas premissas não sejam idiossincráticas demais, pessoais demais. Afinal, lembre-se de que, em princípio, o público potencial do seu argumento é constituído justamente por aqueles que compartilham com você suas premissas. 
  9. Isto pode soar trivial, mas não é: lembre-se de que a sua pergunta deve admitir em princípio mais de uma resposta. Quais seriam as respostas logicamente plausíveis que você consegue imaginar para a sua pergunta? Dito de outro modo, enumere algumas hipóteses concebíveis para a solução do seu problema. Feito isso, escolha a sua preferida: seu melhor palpite para a resposta da pergunta, a solução do seu problema em que você preliminarmente acredita (sua hipótese de trabalho). Dentre as demais respostas concebíveis, aponte agora aquela hipótese que você julga contrariar mais crucialmente a sua própria: aquela que você quer contestar – a sua, digamos, “hipótese rival”. Explicite as razões pelas quais você julga que essa outra hipótese é a “rival” crucial da sua hipótese de trabalho. 
  10. Identifique variável independente e variável dependente em sua hipótese de trabalho. 
  11. Agora, antes de prosseguir, detenha-se por um momento e pergunte-se, em termos puramente especulativos, não empíricos: por que você acredita na sua hipótese de trabalho? Por que lhe parece razoável em princípio atribuir o comportamento da sua variável dependente à variável independente que você escolheu? Quais seriam os mecanismos (causais, em princípio) a que você atribuiria a vinculação aqui postulada entre essas duas variáveis? Como eles vinculam as duas variáveis? Em suma, esboce em poucas linhas a teoria subjacente à sua hipótese de trabalho – e, só para não perder o hábito, bem rapidamente, também aquela subjacente à hipótese rival. 
  12. Aponte alguns falseadores potenciais da sua hipótese, ou seja, eventos que, se acontecerem no mundo, te farão acreditar que a sua hipótese está errada. Reflita: esses eventos te fariam acreditar na hipótese rival? 
  13. Faça agora o experimento mental oposto, e imagine falseadores potenciais da hipótese rival. Em que medida eles constituiriam uma corroboração da sua hipótese de trabalho? 
  14. Comece agora (só agora!…) a esboçar o desenho de sua pesquisa. Imagine maneiras de você testar a sua hipótese contra o “mundo real” (ou, melhor ainda, se possível, a testar uma hipótese contra a outra: a sua hipótese de trabalho contra a hipótese rival). O que você buscaria observar no mundo para tentar estabelecer se a sua hipótese de trabalho é verdadeira ou falsa? 
  15. Como você observaria essas coisas? Em outras palavras: imagine uma maneira de você operacionalizar empiricamente as suas variáveis, ou seja, identificar no mundo diferentes formas de se manifestarem as variáveis, diferentes valores que elas podem assumir (isto pode ser uma mensuração quantitativa ou não – mas lembre-se: uma variável deve variar…). 
  16. Esboce o desenho da pesquisa usando “O”s (para diferentes observações da variável dependente) e “X”s (para “tratamento”, ou seja, o momento de operação do nexo entre a variável independente e a dependente), à maneira de Campbell. [Consultar material do curso para a exposição e discussão de variados desenhos de pesquisa – mas nada impede que você invente outro.] 
  17. (Ameaças à validade.) Em que medida o seu desenho elimina explicações (hipóteses) alternativas à sua? Ou seja, digamos que dê tudo certo, e a sua hipótese se veja corroborada pelos dados empíricos produzidos na observação do seu caso: o que poderia, ainda assim, ter saído errado? Que outra hipótese (imaginada ou não nas questões anteriores) seria ainda consistente com os mesmos dados? 
  18. Especifique um desenho alternativo (pode ser inventado ou extraído de Campbell) que também poderia ser usado para se tentar responder à sua questão. E procure assegurar-se de que ele poderia eliminar a maldita hipótese que sobreviveu ao desenho anterior. Lembre-se, porém, de que nenhum desenho elimina todas as conjecturas alternativas… 
  19. Explique em quê o desenho afinal escolhido é melhor e pior que o desenho alternativo. O que é que cada um controla e o outro não? Mais especificamente, avalie em que medida os variados tipos de ameaças à validação são eliminados ou não pelo desenho escolhido (e pelo desenho alternativo). 
  20. Descreva em linhas gerais a pesquisa que você quer fazer – agora com palavras, para uma pessoa normal… Faça de conta que você está escrevendo para um amigo seu que nunca tenha estudado metodologia científica. Faça-o entender a maneira como a pesquisa aqui desenhada te ajuda a resolver o problema que você se propôs. 
  21. Lembre-se de que mecanismos teóricos e nexos causais não são diretamente observados, mas sim inferidos. Em última análise, porém, o que de fato importa do ponto de vista da ciência não é tanto a sobrevivência ou não da sua hipótese, mas sobretudo a teoria que resulta – ainda que de maneira um tanto indireta – do experimento. Situe o seu problema no contexto mais amplo da literatura corrente, e responda: por que a sua pesquisa deveria ser feita?

Comparando Censos e PNADs

logo cemDurante minha participação no Projeto Censo, no Centro de Estudos da Metrópole, produzi um pequeno estudo sobre a comparabilidade das informações contidas nos Censos Demográficos, de 1960 a 2010, e nas Pesquisas Nacionais por Amostragem de Domicílios (PNADs), das décadas de 1970 a 2000. Pareei as questões e as alternativas de resposta e construí grandes matrizes de comparação, pontuando alguns aspectos que devem ser levados em conta.

Não é um trabalho exaustivo — e não se baseia diretamente nos bancos de dados existentes, mas sim nos instrumentos de coleta. Ainda assim, penso que é de grande serventia para aqueles que estão começando a usar dados de pesquisas do IBGE. 

A publicação saiu na série de Working Papers do CEM e está disponível neste link

As matrizes completas de comparação dos questionários estão disponíveis aqui (Censos) e aqui (PNADs).

E aqui vocês encontram todos os textos da série.

Superando o calcanhar metodológico: o ensino de métodos em ciência política no Brasil

Como anda o ensino de métodos em ciência política no Brasil? Essa questão vem atormentado todos aqueles que se preocupam com metodologia na área já há algumas décadas. O trabalho de Gláucio Soares, “O calcanhar metodológico da Ciência Política no Brasil” (2005), foi um trabalho de referência e já mostrava algumas deficiências da formação metodológica dos cientistas políticos.

A questão que fica é: essa situação se alterou de 2005 para hoje? Esse problema foi enfrentado por dois amigos, Danilo Praxedes Barboza e Samuel Ralize de Godoy, no artigo que divulgamos aqui, “Superando o ‘calcanhar metodológico’? Mapeamento e evolução recente da formação em métodos de pesquisa na pós-graduação em Ciência Política no Brasil”. O texto foi apresentado no IV Seminário Discente da Pós-Graduação em Ciência Política da USP, em abril deste ano, e discutido na mesa que contou com a participação dos professores Lorena Barberia e Adrian Gurzan Lavalle, do Departamento de Ciência Política da USP. Os autores realizaram um mapeamento do ensino de métodos em ciência política e trouxeram algumas conclusões interessantes.

O trabalho fez um levantamento de todas as disciplinas de formação em metodologia de pesquisa oferecidas pelos cursos de pós-graduação em Ciência Política no Brasil. Os autores utilizam como fontes de dados as relações nominais de ementas fornecidas pelos programas à CAPES, órgão do governo federal responsável por avaliar a qualidade dos programas de pós-graduação no País.

Entre as descobertas:

1) Houve pouca variação na oferta total de disciplinas nos programas de ciência política no tempo. “Em média, o número total de disciplinas oferecidas pelos programas em 1998 era de 12,4, quando havia apenas oito programas (IUPERJ/UCAM, UFF, UFMG, UFPE, UFRGS, UNB, UNICAMP e USP). Em 2012, último ano da série, a oferta atinge o índice de 14,5 disciplinas oferecidas, em média, pelos 15 programas (com a inclusão de FUFPI, UFPA, UFSCAR, UFPR, UERJ, UFPEL e UFG).” Em compensação, a oferta de disciplinas relativas à metodologia aumentou relativamente, variando de 1,5 em 1998 para 1,67 em 2012, atingindo picos de 2,25 e 2,36 em 2006 e 2008, respectivamente.

Fonte: Elaborado pelos autores a partir de dados da CAPES (2014). Nota: O eixo vertical  direito orienta a linha verde, que indica a oferta relativa de disciplinas metodológicas (%).

Média de disciplinas oferecidas, 1998 a 2012 Fonte: Elaborado pelos autores a partir de dados da CAPES (2014). Nota: O eixo vertical direito orienta a linha verde, que indica a oferta relativa de disciplinas metodológicas (%).

2) Em relação à oferta de disciplinas metodológicas por programa, entre “programas tradicionais” (aqueles que já existiam em 1998) e “programas novos”, temos os seguintes resultados.

Entre os “programas tradicionais”, UFMG, UFPE e IUPERJ/UCAM são as universidades de maior destaque na oferta de disciplinas metodológicas. “A federal mineira salta de 8% de disciplinas metodológicas em 1998 para 29% em 2012, assumindo posição de destaque em 2006, quando 23% das disciplinas oferecidas eram de caráter metodológico. A federal pernambucana, que oferece quatro disciplinas metodológicas anuais desde 2003, tem índices que variam de 11% (1998) a 24% (2012). Já o IUPERJ/UCAM, com 26% de disciplinas metodológicas já em 1998, tem grande oscilação dessa oferta no tempo. A partir de 2001, a oferta de disciplinas metodológicas ficou abaixo dos 20%, mas ainda em posição alta em relação aos demais programas tradicionais (exceto UFMG e UFPE), assim permanecendo mesmo após a crise institucional que acarretou a troca de todos os seus professores. Os demais programas, independentemente de como começaram a série histórica, ofereceram menos de 10% de disciplinas metodológicas em 2012, com exceção da USP, que apresenta tendência de aumento da oferta no final da série, com 14% de disciplinas metodológicas, próximo à oferta contemporânea do IUPERJ/UCAM.”

 Oferta de disciplinas metodológicas, programas tradicionais, 1998 a 2012

Oferta de disciplinas metodológicas, programas tradicionais, 1998 a 2012

Entre os “programas novos”, “os cadernos de indicadores mostram que a oferta
relativa de disciplinas metodológicas de todos eles varia entre 5% e 15% em todo o período – com exceção do programa da UERJ, formado pelos ex-professores do IUPERJ/UCAM, com 20% em 2010 e 17% em 2012 – e todos apresentam tendência decrescente nessa oferta.”

 Oferta de disciplinas metodológicas, programas novos, 2008 a 2012

Oferta de disciplinas metodológicas, programas novos, 2008 a 2012

Os autores também investigaram as relações entre o conceito CAPES dos programas e a oferta (Vale consultar o Paper).

3) Por fim, as disciplinas ofertadas foram classificadas conforme os temas: “Metodologia Geral”, “Métodos Quantitativos”, “Métodos Qualitativos”, “Análise de eleições e voto”, “Teoria dos jogos e modelos formais” e “Outras técnicas e abordagens”. Mostrou-se que há bastante diversidade na oferta entre os programas.

A conclusão é de que houve um esforço para a superação desse “calcanhar metodológico”. As iniciativas dos programas foram nesse sentido. O artigo também destaca a existência de Eventos e Escolas Especiais de métodos, como a IPSA-USP Summer School e o MQ (FAFICH-UFMG).

Eles sinalizam que para entender a fundo a formação de novos pesquisadores é necessário investigar fatores como a construção do programa pedagógico dos cursos, a formação prévia dos docentes e a produção científica de professores e alunos, sugerindo então uma agenda de pesquisa sobre esse tema.

Vale a pena ler! Para ler o paper, clique aqui. .

Culturomics: 5 milhões de livros como um “microscópio” para a cultura

Logo  no início do Sociais e Métodos, postei sobre um pacote do R que auxilia na exploração do Ngram Viewer, ferramenta de Análise de Conteúdo do Google que explora todo o conteúdo do Google Books. Vejam esse post antigo aqui.

Agora descobri um vídeo muito legal do TED, em que os autores do Ngram Viewer explicam seus propósitos e as funcionalidades da ferramenta. É excelente. Super divertido e insightful. Segue aqui:

ATUALIZAÇÃO: Uma versão legendada está disponível AQUI.

Investimento Estrangeiro Direto no Brasil (mapa por País de Origem Imediata)

Um uso muito legal de coisas sobre as quais já conversamos aqui no Sociais & Métodos.
PS.: Conheçam o Análise Real, Blog de Carlos Cinelli

Análise Real

Que tal visualizar os dados do Censo de Capitais Estrangeiros de uma maneira diferente?

Abaixo, mapa com a distribuição do Investimento Estrangeiro Direto (IED) no Brasil, critério participação no capital, em 2010, segundo o país de origem imediata. O mapa foi feito no R. Quanto mais escuro, maior o investimento daquele país em empresas brasileiras.
IED_Pais

PS: agradeço ao Rogério pelo didático post ensinando o caminho das pedras.

Ver o post original

Escola de Dados

logo-white-br

“Big Data”: (quase) tudo está na internet; informações pra caralho, muito mesmo… Mas onde exatamente está toda essa coisa? E como trabalhar com informações tão diversas? Pois é, tsc!

Com o slogan “Evidência é poder!”, a Escola de Dados (iniciativa da Open Knowledge Foundation – OKF) tem exatamente o propósito de difundir conhecimentos para coletar, analisar e utilizar esses dados públicos disponíveis. Como eles mesmo dizem no site:

O objetivo da Escola de Dados é promover a formação de organizações da sociedade civil, jornalistas e cidadãos para que possam acessar e analisar dados de forma eficaz.

 

Nossos cursos são para todos: se você está começando a aprender sobre dados ou um profissional procurando por inspiração, você encontrará algo aqui!

 

Não deixem de conhecer. Visitem também a página deles no Facebook.

Como medir desigualdades: Slide e materiais

Compartilho aqui os slides e os materiais utilizados em duas seções das quais participei na disciplina “Desigualdades: conceito, mensuração e novas abordagens”, ofertada por Márcia Lima no curso de Ciências Sociais da USP.

Achei que o diálogo foi bem legal. Os materiais contém bancos de dados utilizados como exemplos, scripts em R que ilustram e aplicam os conceitos apresentados, bem como dois textos pequenos e introdutórios. O link para baixar tudo é esse aqui. Mas não sei se essas coisas bastam por si mesmas, sem a parte expositiva.

Um adendo sobre os scripts em R:

1 – Há a replicação da regressão de prestigio sócio-ocupacional de Duncan (1961), que serviu, posteriormente de base para a construção de outras escalas contínuas. Inclui um plot em 3d, hehe.

2 – Aplicação de diversas medidas de desigualdade de renda a duas edições das PNADs (acompanha banco de microdados — com apenas algumas variáveis).

3 – Simulações para ilustrar a sensibilidade de cada indicador de desigualdade de renda.

Instruções para o uso dos microdados dos Censos

cem logoCompartilho com vocês uma nota técnica com informações e instruções para o uso dos microdados dos Censos Demográficos do IBGE, de 1960 a 2010. Esse pequeno relatório é complementar à divulgação feita, há alguns meses, pelo Centro de Estudos da Metrópole (o que já foi anunciado aqui no blog anteriormente).

É sempre necessário adquirir familiaridade com um banco de dados novo, antes de trabalhar com ele — o que pode ser chato e demorado. Com o objetivo de acelerar os primeiros passos, dou breves dicas operacionais e indico alguns pontos que devem ser considerados para a realização de uma análise longitudinal e comparativa com uso dos Censos. A proposta não é ser exaustivo. Sugestões são bem vindas.

CEM disponibiliza microdados da PNAD 2012 e shapes de Setores Censitários (2010)

Captura_de_tela-2Nova divulgação do Centro de Estudos da Metrópole: estão agora disponíveis para download os microdados  completos da PNAD 2012 em formato SPSS, com documentação completa (outro dia falei por aqui que seria importante abrir e trabalhar detidamente com esses dados — agora ficou mais fácil). Lembrem-se: os dados das PNADs dos demais anos, de 1976 a 2011, também estão no site.

Mas a principal divulgação desta vez são os dados e bases cartográficas dos setores censitários das metrópoles do Brasil para o Censo de 2010. Os shapes dos mapas foram todos meticulosamente revistos e corrigidos a partir do minucioso trabalho de Daniel Waldvogel, José Donizete Cazzolato (responsáveis pela área de informação geográfica do CEM) e sua equipe.

Para acessar esses dados, na página principal do site do CEM, é só clicar no menu Base de dados e, em seguida, Bases cartográficas.

 

3º Ciclo de Oficinas de Inteligência Metodológica do Cebrap

logo_cebrap_finalNeste mês de outubro se inicia o 3º Ciclo de Oficinas de Inteligência Metodológica do Centro Brasileiro de Análise e Planejamento (Cebrap), em São Paulo.

As oficinas são encontros de uma tarde em que um pesquisador experiente no uso de alguma técnica ou método faz uma intensiva exposição sobre suas potencialidades e formas de utilização. São como grandes “vitrines”, que apresentam soluções inteligentes para problemas substantivos da pesquisa. Não se restringem a métodos quantitativos!

A primeira oficina será a de Glauco Peres da Silva (Cebrap/USP/Fecap), e ocorrerá no dia 16 de outubro de 2013 (quarta-feira),  das 14:00 às 18:00, no auditório do Cebrap, que fica na Rua Morgado de Mateus, 615, Vila Mariana. O titulo é A dimensão regional na análise social. Sua proposta é apresentar formas de tratar o caráter geográfico e espacial dos fenômenos sociais — incorporando aspectos sobre inferência causal a partir de lógica contrafactual. Serão também apresentados alguns importantes indicadores regionais.

A programação completa das oficinas pode ser encontrada neste link.

 

Escola de métodos e técnicas em São Paulo: IPSA Summer School 2014

summerTermina nesta sexta-feira, dia 04/10/2013, o período de inscrição para o IPSA Summer School 2014, que ocorrerá em São Paulo, na USP, entre os dias 27 de janeiro e 14 de fevereiro do ano que vem, 2014. É uma iniciativa da International Political Science Association, juntamente com o departamento de Ciência Política e o Instituto de Relações Internacionais da USP.

Essas  Escolas de Verão ou de Inverno são uma das melhores oportunidades para aprender sobre metodologia e técnicas de pesquisa são as chamadas. Variados cursos intensivos, dos mais básicos aos mais avançados, são oferecidos conjuntamente em períodos de férias, geralmente ocorrendo num intervalo entre 2 a 4 semanas. São pesados, às vezes com aulas todos os dias, o dia todo — ou então, apenas num período (diurno, vespertino ou noturno), mas com muitos “deveres de casa”. Mas justamente por toda essa intensidade, essas poucas semanas nos fazem “economizar” um semestre de estudos numa disciplina regular.

No IPSA Summer School, a carta de cursos é bem variada. E professores renomados de universidades internacionais é que ministram as aulas (que são dadas em inglês…).

– Mathematics for Social Scientists
– Refresher Course in Statistics
– Predicting Elections
– The Philosophy and Methodology of the Social Sciences
– Case Study Methodology
– Comparative Research Designs and Comparative Methods
– Introduction to Network Analysis using Pajek
– Method and Political Theory
– Mixed Methods
– Multi-Level Analysis
– Quantitative Methods for Public Policy Analysis
– The Experimental Approach to Political Science Research
– Time Series Analysis and Pooled Time Series Analyses

Informações sobre preços e formas de se inscrever estão neste link.

Vale muito a pena!

 

Há partidos políticos no Brasil? – Recomendação de Leitura

downloadRecomendamos a leitura do post: Há partidos políticos no Brasil?, publicado no blog Todas as configurações possíveis. Segue um breve comentário:

O físico Ricardo Marino fez um uso criativo e eficiente dos dados de votação disponíveis no site do Senado, após ter compilado uma base de dados a partir de documentos PDF como esse.

Ou seja, foi um webscrapping (sobre o que temos falado por aqui) bem feito seguido de uma interessantíssima análise de dados. Apesar de que o autor se diz leigo em temas sobre política, seus bem empregados métodos o convergiram com importantes conclusões da Ciência Política: partidos existem e ordenam claramente o comportamento dos parlamentares — diferentemente do que opiniões de senso comum costumam dizer.

Reproduzo aqui algumas de de suas conclusões:

  • Os únicos partidos de oposição são PSDB, DEM e, surpreendentemente, PSOL. […] infelizmente ele [o senador do PSOL] é apenas um e é difícil tirar estatística de um ponto para confirmar a independência política do PSOL.
  • PSDB apresenta razoável coerência interna, mas não se compara à coerência petista. […]  o partido costuma votar junto, com raras exceções […].
  • O caso do PMDB é talvez o mais interessante. […] A estrutura interna do PMDB é como a estrutura do senado todo, ou seja, o PMDB possui a mesma estrutura partidária que nenhuma estrutura partidária! Esse também é o caso do PR […]
  • O bloco interno do PDT possui mais correlações negativas que positivas, tornando esse partido o mais incoerente de todo o Senado […]
  • O DEM é o partido “do contra”. […] esse partido faz jus ao título de oposição.

A pitoresca história da estatística (Resenha de “Uma Senhora Toma Chá”)

Reprodução da resenha escrita por Carlos Antônio Costa Ribeiro e publicada na Revista Ciência Hoje, número 264 (outubro/2009)

Uma senhora toma chá – Como a estatística revolucionou a ciência no século 20

David Salsburg. Rio de Janeiro, Jorge Zahar Editor, 288 p.

senhora-toma-cha-umaNo século 20, diversas disciplinas científicas passaram em maior ou menor grau pela revolução probabilística. Em vez de imaginar que os fenômenos estudados seguem leis determinísticas, as ciências modernas partem da ideia de que estes seguem distribuições probabilísticas. Há possibilidade de conhecermos o mundo, mas nunca temos certeza absoluta sobre os resultados de nossas investigações. Essa passagem de uma visão determinística do mundo, que caracterizou as ciências até o século 19, para uma visão probabilística, a partir do século 20, foi possível graças aos avanços e revoluções ocorridos em uma disciplina: a estatística.

A estatística não surgiu naturalmente, mas sim a partir do trabalho de diversos pensadores e estudiosos. As histórias de como eles criaram e desenvolveram as diversas facetas do conhecimento estatístico são contadas no fascinante livro de David Salsburg. Mostrando conhecimento sobre os fundamentos matemáticos, Salsburg relata a história viva da estatística, ou seja, a história das pessoas que inventaram esses métodos e teorias, das controvérsias e brigas entre estatísticos e do contexto político e social em que se encontravam seus protagonistas.

O autor começa o livro contando uma incrível anedota que ilustra como o famoso geneticista e estatístico inglês Ronald Fisher (1890-1962) explicou os fundamentos matemáticos do método experimental. Reza a lenda que, em uma tarde ensolarada em Cambridge, uma senhora afirmou que o gosto do chá seria completamente diferente se o leite fosse acrescentado à xícara antes ou depois do chá. O professor Fisher teria proposto um experimento em que a senhora deveria tomar aleatoriamente xícaras de chá com leite, acrescentado antes ou depois. Dessa forma, afirmava ser possível testar se a senhora distinguia o gosto do chá por sorte ou por conhecimento de causa. Mas essa é apenas uma anedota; não foi assim que Fisher descobriu os fundamentos matemáticos do método experimental.

Antes de chegar à história de como Fisher descreveu os fundamentos do método experimental, Salsburg conta como Karl Pearson (1857-1936) sucedeu Francis Galton (1822-1911) – o inventor da correlação estatística e da regressão à média – em seu laboratório biométrico. Pearson pretendia testar hipóteses derivadas da teoria de Darwin sobre o surgimento de novas espécies a partir de mudanças aleatórias nos ambientes ocorridas em paralelo, mas não correlacionadas, a mudanças aleatórias nos organismos. Ele acreditava que somente o conhecimento de distribuições matemáticas de probabilidade seria capaz de explicar a teoria de Darwin.

Embora essa ideia seja poderosa e, em última instância, verdadeira, Pearson ficou toda a vida preso a uma coleta insana de dados para provar suas teorias, quando outros estatísticos, inclusive seu filho, Egon Pearson (1895-1980), já estavam mais à frente no desenvolvimento da ciência. Um dos principais opositores e críticos de alguns erros de Pearson pai foi Ronald Fisher, que no início de sua carreira não foi reconhecido pelo poderoso Pearson e acabou aceitando um emprego em uma estação de experimentação agrícola. Foi a partir das experiências neste local isolado, Rothamstead, e não da tarde ensolarada tomando chá, que Fisher escreveu uma série de artigos definindo os fundamentos do método experimental. Salsburg conta de forma viva e emocionante a história de Fisher, descrevendo as contribuições desse grande cientista para o desenvolvimento da estatística, mas mostrando outras facetas de sua personalidade, como, por exemplo, as tendências fascistas. Além de relatar as controvérsias entre Pearson e Fisher, o autor conta a história de diversos outros estatísticos e cientistas que contribuíram para o desenvolvimento dos métodos que são hoje parte do cotidiano de qualquer cientista. As histórias se multiplicam no livro e são sempre narradas de forma agradável e instigante.

Os leitores que conhecem e trabalham com estatística vão adorar conhecer as histórias dos homens e mulheres que inventaram os métodos que usam em seu cotidiano de trabalho. Por exemplo, as de William Gosset (1876-1937), que inventou o teste t de Student enquanto trabalhava na cervejaria Guiness; de Chester Bliss (1899-1979), inventor do modelo probit; de Jerzy Neyman (1894-1981), que desenvolveu a matemática que explica os testes de hipótese; de W. Edwards Deming (1900-1993), que revolucionou a indústria japonesa; ou de Andrey Kolmogorov (1903-1987), o gênio matemático que desenvolveu a teoria da probabilidade, entre outras, de forma ímpar. Além de ser interessante para o pesquisador que usa estatística em seu trabalho, o livro é uma leitura agradável para qualquer pessoa curiosa que esteja interessada em conhecer melhor a história das ciências modernas. O historiador da ciência mais especializado, no entanto, talvez sinta falta de explicações mais detalhadas e profundas sobre a história da estatística, mas o livro não se destina ao historiador profissional. Foi escrito para um leitor que deseje se distrair com relatos pitorescos sobre a importância da estatística para a ciência no século 20. Recomendo fortemente o livro; com certeza, o leitor vai se divertir.

Carlos Antonio Costa Ribeiro

Instituto de Estudos Sociais e Políticos (IESP – UERJ)

Khan Academy, Coursera, YouTube e aprendizado online

[Recomendação preliminar: vejam este vídeo e talvez este também]

Lidar análise de dados quantitativos requer um mínimo de conhecimento de Exatas: Álgebra Linear, Cálculo, Probabilidade, alguma linguagem de programação… Justamente aquelas áreas das quais os estudantes de Humanas procuram fugir. Claro, para as coisas mais básicas, não é necessário “isso tudo”… Às vezes, os menus do SPSS ou algumas poucas funções do Excel já bastam. Mas isso limita as possibilidades de pesquisa e limita a própria imaginação do pesquisador. Vôos mais altos requerem mais formação.

Mas à certa altura do campeonato (depois de formado, durante a pós-graduação, trabalhando…), é pode ser bem desestimulante voltar para uma carteira de sala de aula, numa turma de Matemática para assistir um semestre inteiro de Cálculo I (uma das matérias que mais reprova!), geralmente em turmas que se reúnem três vezes por semana… É um empenho. Uma saída é o “auto-didatismo”. Anteriormente, o caminho era vasculhar livros, manuais, revistas em bancas de jornal… Ou seja, meios escritos. Ainda é um empenho, né!? Mas tá… pode-se estudar ou “fuçar” na hora em que se bem entender. Hoje, a internet facilita enormemente a vida do auto-didata.

Uma das principais iniciativas de ensino de exatas online é a Khan Academy. Tudo começou quando Salman Khan, que trabalhava no mercado financeiro, não pode dar suas usuais aulas de matemática aos seus sobrinhos. Para compensar a falta, gravou alguns vídeos no Youtube com o conteúdo das aulas. Ele se surpreendeu quando percebeu que o aprendizado deles era maior por meio dos vídeos. Resolveu dedicar-se à educação virtual e hoje está à frente de uma fundação enorme, que já não se limita apenas à matemática básica. Há vídeos com matérias completas (e sequenciadas) de Cálculo, Álgebra Linear, Equações Diferenciais, ou seja, matemática de ensino superior. E, além disso, Micro e Macroeconomia, Química, Biologia, Astronomia, História e mais um conjunto amplo de outros temas. Vários conteúdos são acompanhados de exercícios interativos. É possível criar um login e acumular pontos, ao assistir os vídeos, responder questões e até mesmo ajudar outras pessoas, sendo monitor.

A Khan Academy começou nos Estados Unidos. Logo, seu conteúdo está em inglês… A Fundação Lemann, no entanto, está traduzindo boa parte dos conteúdos para o português. E apesar de que os conteúdos ainda sejam poucos, seu volume têm crescido. Ainda não há Cálculo e Álgebra, mas pode-se encontrar algo sobre Estatística, Probabilidade e “Pré-Cálculo”.

Mas esta não é a única grande iniciativa.

Um segundo exemplo é o Coursera, tem uma proposta um pouco diferente. Trata-se de uma plataforma online em que professores de diversas universidades (muito importantes, inclusive), oferecem cursos à distância. Não raro, esses cursos ocorrem simultaneamente a cursos presenciais. Diferentemente da Khan Academy (em que se pode começar a qualquer momento), no Coursera os cursos têm data inicial e final. Assiste-se vídeos expositivos (curtos e muito bem produzidos) e os regularmente inscritos devem entregar exercícios periodicamente. Recebe-se certificado depois da conclusão, emitidos pelas próprias Universidades de origem dos professores. Alguns cursos têm semanas, outros meses. Há oferta simultânea de centenas de disciplinas.

Auto-didatismo tem seus limites: em meio a muitas coisas para fazer e muito trabalho, é difícil manter a constância nos estudos; além disso, a exploração dos conteúdos nem sempre se dá da maneira mais sistemática e na ordem mais lógica. Ainda assim, acredito que esta será uma forma com uma prevalência crescente — seguindo a intuição de Isaac Asimov, no vídeo indicado no início.

[Este post dialoga de perto com este outro, publicado no Metodologia Política]

Ciências sociais, censo e informação quantitativa no Brasil: entrevista com Elza Berquó e Nelson do Valle Silva

Fizemos uma entrevista com Elza Berquó e Nelson do Valle Silva. Saiu na Novos Estudos Cebrap.

O link é esse aqui.

Reproduzimos a introdução aqui:

Por sua regularidade, capilaridade, relativa padronização e abrangência temática, os censos demográficos estão entre as principais matérias-primas dos estudos sobre as mudanças de longo prazo na sociedade brasileira. No entanto, analisar dados dos censos implica também conhecer seus processos de produção e, consequentemente, a própria história dos levantamentos de informação social quantitativa no Brasil.

A entrevista a seguir foi realizada no contexto do primeiro workshop do Projeto Censo. Idealizado e coordenado pela professora Marta Arretche (CEM-Cebrap e USP), o Projeto Censo, iniciado em meados de 2012 no âmbito do Centro de Estudos da Metrópole (CEM), objetiva examinar as mudanças sociais, políticas e demográficas ocorridas nos últimos cinquenta anos, tomando como eixo a análise das desigualdades. No percurso de nossa pesquisa, diversas inquietações surgiram durante a utilização dos censos. Nós, entrevistadores, éramos parte da equipe de suporte metodológico do projeto e nosso objetivo ao entrevistar dois dos maiores pesquisadores brasileiros que já trabalharam com essas informações era o de (re)descobrir as histórias que envolvem a produção e o uso dos censos demográficos2. A trajetória profissional dos professores Elza Berquó e Nelson do Valle Silva diz muito sobre a consolidação do campo das ciências sociais no Brasil e ambos são parte da história dos levantamentos e da análise dos dados censitários no país.

Nelson é um dos principais responsáveis por desenvolver o campo de estudos de estratificação social no Brasil. Tem inúmeros trabalhos sobre desigualdades educacionais, raciais, ocupacionais, estruturação de classes e mercado de trabalho. Atualmente professor visitante do Iesp-Uerj (anteriormente professor titular do Iuperj), foi também pesquisador titular do Laboratório Nacional de Computação Científica do então CNPQ (LNCC) nas décadas de 1980 e 1990, além de ter trabalhado no IBGE nos anos 1970, inicialmente como analista de sistemas do Instituto Brasileiro de Informática (IBI-IBGE) e, posteriormente, como chefe do Departamento de Estudos da População.

Elza é professora titular da Faculdade de Saúde Pública da Universidade de São Paulo. Tem graduação em matemática, mestrado em estatística e especialização em bioestatística pela Universidade de Columbia. Foi aposentada compulsoriamente pelo AI-5, e então compôs o corpo de fundadores do Cebrap, onde deu seguimento às suas pesquisas na área de demografia. Liderou a criação do Núcleo de Estudos de População (Nepo) da Unicamp, em 1982, e da Associação Brasileira de Estudos Populacionais (Abep), em 1976. Recebeu, em 1998, a Grã-Cruz da Ordem Nacional do Mérito Científico e é membro titular da Academia Brasileira de Ciências.

Censos (1960-2010) e PNADs (1976-2011) para download (formato SPSS)

No site do Centro de Estudos da Metrópole estão disponíveis para download os microdados dos Censos Demográficos realizados pelo IBGE (de 1960 a 2010) e das Pesquisas Nacionais por Amostragem de Domicílios (de 1976 a 2011).

Os “microdados” são os “dados brutos” — isto é, dados que são como grandes planilhas (realmente grandes!),  em que cada linha traz informações sobre um indivíduo e cada coluna representa uma característica (como sexo, raça, idade, escolaridade, renda, ocupação etc.) São a fonte primária a partir da qual todas as análises são feitas. Mas requerem algum domínio de softwares de análise estatística, como SPSS, Stata, R ou SAS, por exemplo. 

Tudo pode ser acessado livremente. Basta preencher um cadastro gratuito.

Faltam médicos no Brasil?

Blog de uma nota só

Resolvemos contribuir um pouco para o debate sobre a proposta de incentivar a vinda de de médicos formados fora do Brasil para reduzir o déficit de profissionais na saúde.

Hoje circulou um mapa com dados sobre o número de médicos por estado (http://www.viomundo.com.br/politica/pedro-porfirio-por-que-os-medicos-cubanos-assustam.html). A reportagem foi produzida em maio de 2013.

Ainda que bom, esse mapa poderia ocultar as diferenças no interior de cada estado.

Assim, construímos o seguinte mapa utilizando dados do DataSUS sobre o número de médicos por município em maio de 2013.

Imagem

Fonte: elaboração própria a partir de dados do DataSUS e bases cartográficas do Centro de Estudos da Metrópole.

Sem nos aprofundarmos na análise da distribuição de médicos no país, é possível perceber que não apenas os estados são muito desiguais entre si, mas também há enormes diferenças no interior de cada estado.

Repare a quantidade de municípios vizinhos pintados de amarelo ou laranja. Nessas regiões…

Ver o post original 355 mais palavras