PESQUISA

Participe da votação sobre os melhores canais de divulgação científica em português na internet.

quinta-feira, 1 de dezembro de 2016

Desmatamento na Amazônia aumentou 29% em 2016. O que isso quer dizer?

Agora, provavelmente, que estamos sob um novo regime de tendência de aumento do desmatamento da floresta Amazônica - a estimativa do Prodes para 2016 é de uma perda de 7.089 km2. Em 2013, o aumento havia sido de 28%, mas ainda estava dentro da flutuação normal da taxa de derrubada do bioma (Fig. 1). Mas agora a área desmatada está acima dessa flutuação, para alfa=0,0125 - tomei o valor de 1/4 de 5% por haver feito quatro comparações (o dado de 2016 contra os dados de 2003 a 2012 e contra os dados de 2003 a 2014 e o mesmo com o dado de 2015) (Fig. 2; teste t Student: p[2003-2012]=0,002035, p[2003-2014]=0,005131).

Figura 1. Curva de regressão exponencial para variação do desmatamento amazônico de 2003 a 2013.

Figura 2. Curvas de ajuste de regressão exponencial para variação do desmatamento amazônico de 2003 a 2016. Em laranja, curva de ajuste com base nos dados de 2003 a 2012; em roxo, base nos dados de 2003 a 2014. Fonte: Prodes.

Para o valor de 2015 o desvio ainda não é significativo a alfa=0,0125 (teste-t Student: p[2003-12]=-0,024308, p[2003-14]=0,029571).

Embora somente em 2016 o desvio tenha sido significativo, o ponto de inflexão parece ser anterior. Fazendo um ajuste polinomial dos dados de 2003 a 2016, obtemos uma equação do segundo grau de: 238,620192307692. x2 - 960.560,996840659 + 966.685.115,133791 (r2=0,9485657024593782); cujo vértice é 23/9/2012 com 5.158,45 km2/ano (Fig. 3).

Figura 3. Ajuste polinomial de segundo grau dos dados de desmatamento da Amazônia Legal. Fonte: Prodes.

É mais do que tentador associar esse ponto à entrada em vigor do Novo Código Florestal em 25/mai/2012 - não apenas pela coincidência temporal, mas também (e sobretudo) pelo mecanismo lógico da menor proteção ambiental introduzida com as modificações em relação ao Código Florestal até então vigente.

Upideite(02/dez/2016): Alternativamente ao ajuste polinomial, podemos usar uma regressão segmentada e encontrar o ponto de quebra. Transformando os valores da área desmatada em ln, obtemos o gráfica da figura 4.

Figura 4. Regressão segmentada - desmatamento em logaritmo neperiano.

O intercepto corresponde a 17/mar/2012 e a taxa de desmatamento: 4.705 km2/ano. Também em algum ponto de 2012 durante ou depois das discussões que levaram à aprovação das alterações dos mecanismos de proteção da cobertura vegetal.

Upideite(02/dez/2016): Veja também:
Maurício Tuffani/Direto da Ciência (02/dez/2016): "Brasil já perdeu 19,5% da Floresta Amazônica, área igual a meio Amazonas"

domingo, 20 de novembro de 2016

Superlua contra o baixo astral: quando algo passa a ser super?

O multiempreendedor da divulgação científica brasileira (Scienceblogs Brasil, Sciencevlogs Brasil, BláBláLogia, Chopp comCiência...), Rafael Soares, perguntou:

O interesse popular pela 'superlua' ('supermoon') é relativamente novo (no Google Trends, surge a partir de 2011 - fig 1; no Google Ngram Viewer, não há registro de 1800 a 2000) para algo antigo. Muito antigo. É apenas a denominação da Lua cheia (ou nova) durante o perigeu - algo que ocorre praticamente uma vez por quadrimestre - e, mais especificamente, em sua maior aproximação no ano (em 2011 foi em 19/mar; em 2012, 06/mai; 2013, 23/jun; 2014, 10/ago; 2015, 28/set e 2016, 14/nov). (Nem sempre a Lua cheia - ou nova - irá ocorrer quando o satélite estiver em sua máxima aproximação da Terra, mas como colocam uma tolerância de 10% para mais ou para menos a frequência aumenta bastante.) Não é um termo científico (a expressão astronômica para denominar a Lua cheia ou nova durante o perigeu seria... bem Lua cheia ou nova de perigeu), aparentemente foi tomado de empréstimo da astromancia pela imprensa popular. (O interessante é que apesar de ser um fenômeno corriqueiro, esse interesse tem permitido o engajamento do público em ações de divulgação e educação obre a astronomia, p.e. alunos da ocupação da Escola Normal Superior da Universidade do Estado do Amazonas tiveram uma aula durante a observação do fenômeno em novembro agora com o pessoal do Clube de Astronomia da Universidade Federal do Amazonas.)

Figura 1. Registros de busca por 'supermoon' no Google. Fonte: Google Trends.


Figura 2. Variação do tamanho aparente da Lua.
O prof. Dulcidio Braz, em seu Física na Veia, explicou o aumento do tamanho aparente (Fig. 2) e do brilho com a aproximação da Lua (com uma rápida recapitulação de por que a Lua se aproxima da Terra a cada volta).

Isso a torna 'super'? Claro que depende amplamente da subjetividade de cada um para considerar algo particularmente especial. Eu proponho que se denomine a um evento de fenômeno natural recorrente como particularmente destacado ('super') se a magnitude de algum parâmetro seu (no caso da Lua, proximidade, tamanho e brilho) for de ocorrência particularmente rara (acima ou abaixo de 3 desvios padrões em relação aos valores médios e com frequência esparsa - concedo aqui, que ocorra no máximo uma vez ao ano - embora minha inclinação seja para, no máximo, uma vez no tempo médio de vida de uma pessoa).

A 'superlua' atende ao critério de ocorrer no máximo uma vez por ano (ocorre aproximadamente uma vez a cada 14 meses). Mas o quanto difere das demais 12 ou 13 luas em perigeu no mesmo ano? Pegando os valores calculados para os perigeus de 2001 a 2100, a média das menores distâncias em um ano é de 356.848,23 km (com DP de 248,82 km); 1,58% menor do que a média das distâncias de perigeu no período é de 362.564,4(±4.517,45) km: um valor apenas 2 DP abaixo (Fig 3).

Figura 3. Distribuição das distâncias Terra-Lua em perigeu para o período de 2001 a 2100. (Em amarelo, a faixa da distância correspondente à 'superlua' de novembro de 2016.) Fonte: Astropixels

Como a distribuição é bimodal com concentração em torno dos valores extremos, na verdade é relativamente mais rara a ocorrência de perigeu com distâncias próximas à média. Se o critério fosse apenas raridade, uma 'superlua' seria uma 'superlua média' - apenas 0,06% dos perigeus entre 2001 e 2100 ocorrem entre 362.500 e 362.600 km de distância da Terra (uma vez a cada 12 a 13 anos em média). Em comparação 4,52% dos perigeus ocorrem abaixo da média das 'superluas' (uma vez a cada ano e meio). (O principal fator da variação das distâncias de apogeu e perigeu é a variação da excentricidade da órbita lunar. E o principal fator da excentricidade lunar é a maré solar: seu efeito é maior quando o sistema Terra-Lua está alinhado com Sol. Isso ocorre exatamente nas fases de Lua cheia - quando a Lua está no lado oposto ao Sol - ou nova - quando está do mesmo lado.)

E uma superlua de distância tão baixa como a deste ano? A imprensa destacou que desde 1948 a Lua não se aproximava tanto assim da Terra. No período de 2001 a 2100, 8 episódios de superlua tão extremos ou mais quanto o deste ano devem ocorrer (incluindo a de 2016), uma média de um a cada 12,5 anos (Fig. 4a,b). Mas também a menos de 2DP da média.

a)
b)
Figura 4. a) Variação do apogeu e perigeu lunar entre 2001 e 2100. b) Variação inferior do perigeu lunar. Linha horizontal pontilhada, distância do perigeu de nov/2016. Fonte: Astropixels

XKCD

Isso torna ou não a Lua super? Como argumentei lá em cima, fica a gosto do freguês.

Mas, em um sentido, a Lua é 'super' independente de se cheia, nova ou em perigeu. Afinal ela é mais possante do que uma locomotiva (nosso satélite tem uma energia cinética de 3,8.10^28 J; a maior velocidade obtida por um carro sobre trilhos - propulsionado por foguete - foi de 2.736,8 m/s, se tal velocidade pudesse ser desempenhada por uma composição como o BHP Billiton de cerca de 100.000 t, isso daria 3,7.10^14 J), capaz de saltar mais alto do que um arranha-céu (não apenas porque arranha-céus não pulam; a inclinação da órbita lunar em relação ao equador terrestre varia de 18,28° a 28,58°, com um raio médio da órbita de 384.400 km, isso corresponde a uma variação de altura de cerca de 70 mil km, mais de 84.000 vezes a altura do Burj Khalifa em Dubai, EAU) e de voar mais rápido do que uma bala (sua velocidade orbital média de 1.022 m/s é maior do que a de muitas balas - ainda que não de todas).

Veja também:
De Athenaa Trinity Cientistas Feministas (17/nov/2016): Super Lua, sim! Mas pera lá.

domingo, 13 de novembro de 2016

Blogues acadêmicos

A maior parte dos blogues de divulgação científica historicamente tem sido criada e mantida por iniciativas independentes. Alguns têm se reunido em condomínios como os ScienceBlogs* Brasil, havendo projetos ancorados em veículos tradicionais de divulgação como a National Geographic* e a Nature (que deu origem ao Scilogs*).

Uma outra fase parece se delinear com a entrada dos blogues acadêmicos - blogues de ciências mantidos por instituições acadêmicas e universidades. Ela não substitui, claro, os blogues independentes e os associados em condomínios de blogues (estes independentes ou coligados com empresas de comunicação científica). Interessante essa institucionalização tardia justo num momento em que os blogues de ciências parecem estar em crise - de um lado parece refletir o conservadorismo acadêmico, frequentemente demorando para adotar novas mídias; mas, de outro, pode ser um incentivo para a superação dessa crise. A se ver.

A lista abaixo não é completa - bem longe disso -, mas será atualizada com novas entradas futuramente. (A data de origem, quando não explicitada na página dos projetos, foi obtida pela entrada mais antiga no Internet Archive - o que pode gerar alguma incerteza. As informações sobre as estatísticas de visitação são as fornecidas nas páginas dos serviços - exceto no caso do Blogs da Unicamp.)

========
Harvard Blogs
Os Harvard Blogs são compostos por cerca de 900 blogues (com 200 ativos) mantidos por alunos, ex-alunos, professores e funcionários. São mais de 700 mil visitantes por mês. O serviço está ativo desde 2003.

Newcastle University Blogs
Com 237 blogues entre ativos e inativos (chegou a ter 1.026 blogues!), certamente o Newcastle University Blogs figura entre os maiores condomínios acadêmicos. Como é aberto tanto para professores e pesquisadores quanto para alunos da universidade, provavelmente a maior parte dos blogues sejam de alunos (ou ex-alunos). Está no ar desde 2007 - embora o blogue mais antigo no diretório atualmente seja de 2012.


BLOGIPALVELUT "Helsingin yliopiston blogit ja blogipalvelut" (Serviço de blogues "Universidade de Helsinque, blogues e serviço de blogues")
Blogipalvelut da Universidade de Helsinque consiste de 289 blogues (entre ativos e inativos) mantidos pelo staff da universidade e alunos desde 2007.

Stellenbosch University’s Blog Service
Mantidos por professores, pesquisadores e estudantes de pós-graduação, os 11 blogues do Stellenbosch University’s Blog Service são voltados para a comunicação sobre temas acadêmicos e institucionais desde 2008.

LSE Blogs "Expert analysis & debate from LSE"
Os LSE Blogs, criados em 2010, são blogues mantidos por pesquisadores da London School of Economics and Political Science (que conta também com contribuição de alunos e convidados especiais). Têm um alcance de 70.000 visitantes semanais distribuídos em 60 blogues ativos (são mais 10 inativos mantidos em arquivo).

University of Sidney BLOGS
Mantidos, desde 2010, exclusivamente por pesquisadores da instituição, os BLOGS da Sydney Uni são compostos por 23 blogues ativos (26 arquivados).

University of Nottingham Blogs
Os University of Nottingham Blogs são compostos por 92 blogues ativos e 13 arquivados. A iniciativa começou em 2011.

Chapman University Blogs
24 blogues ativos compõe os Chapman University Blogs. Os blogues são mantidos por alunos e professores da universidade desde 2012.

Wits Blogs "A collection of Blogs written by Wits Staff"
Os Wits Blogs são compostos por apenas 2 blogues ativos dos servidores da University of the Witwatersrand - um do vice-chanceler da universidade e outro que funciona como página institucional da faculdade de direito. O serviço parece ter se iniciado em 2013.


-----
Blogs de Ciência da Universidade Estadual de Campinas
Os Blogs da Unicamp foram criados em 2015 e são mantidos por professores, pesquisadores e pós-graduandos da universidade. São 23 blogues ativos (e um número maior de blogues em gestação) que contam juntos com cerca de 5.000 visitantes por mês.

========

*Upideite(13/nov/2016): links adidos a esta data.

domingo, 6 de novembro de 2016

A publicação científica deve ter como meta ser amplamente lida?

O texto do teólogo e filósofo americano Daniel Lattier no Intellectual Takeout "Why professors are writting cr*p that nobody reads" (asterisco por minha parte) parece ter tido uma boa acolhida entre os cientófilos nas mídias sociais sendo bastante compartilhado. O filósofo Pablo Ortellado em seu perfil no facebook, diz: "Precisamos publicar menos e não mais, como nos mandam as agências e os programas de pós-graduação. E, sobretudo, precisamos publicar coisas úteis e relevantes".

Um dos primeiros a levantar um "peralá, é isso mesmo?" que eu vi, foi o biólogo Carlos Hotta, do Apatoss... "Brontossauros em Meu Jardim", em seu perfil no facebook. "Por que vocês escrevem tantos posts no Facebook se ninguém lê?", se pergunta.

Eu acho que Lattier tem um ponto, mas que Hotta também tem. De um lado, temos que notar o "cr*p" na crítica do filósofo americano. Estudos com metodologias ruins, que em nada contribuem com as ciências estão sendo publicados em grande quantidade - a maior parte dos diagnósticos apontam para a pressão do "publish or perish"como a causa principal desse estado de coisas. Mas, nesse ponto, *ainda bem* que tais estudos são pouco lidos e menos ainda citados.

Só que, pelo que podemos saber, a taxa de leitura e, pior, o índice de citação *não* é um indicador de qualidade. (Um recente trabalho conclui que grande parte do impacto de uma publicação depende do puro acaso, ainda que não apenas dele.)

Então, ok, trabalhos que são "porcarias" devam ser desincentivados. Mas será que, se fizemos os melhores esforços para aplicar metodologia correta e realizar um trabalho bem feito, devemos nos preocupar se o artigo resultante será ou não lido por muitos outros pesquisadores para decidir pela publicação?

Aqui o ponto do Hotta. Sim, muitas publicações são pagas - ou pelos autores ou pelos assinantes -, então há, de fato, algo a ser pensado a respeito de se vale a pena ou não publicar pensando no alcance potencial. Mas há vários lugares em que se pode publicar a baixo custo ou a nenhum - em repositórios pessoais e arquivos de pré-publicações, p.e.

Porém publicar pensando apenas no "impacto" potencial que o artigo poderá ter é problemático. Um aspecto a consideramos é o chamado efeito "Bela Adormecida", em que certos artigos são ignorados por décadas até que subitamente são redescobertos e passam a ser amplamente citados. Outro é que mesmo se um artigo é pouco lido, ele pode ter um impacto maior - por exemplo, se ele tiver sido usado em uma revisão ou em uma meta-análise. E, em um campo especializado, um universo de 10 leitores pode ser bem representativo de uma fração significativa ou até a totalidade do público a ser atingido.

Na atualização do Hotta, o químico Luís Brudna, do Tabela Periódica, lembra ainda que I.A.s como o Watson poderão fazer a varredura automática dos artigos buscando alguma referência obscura pouco conhecida que poderá ser de importância vital no diagnóstico de uma doença rara igualmente obscura e pouco conhecida - ou uma versão mais rara de uma doença mais comum.

Nesse sentido, a baixa taxa de leitura é lamentável, mas não deve ser uma barreira para a publicação - do contrário seria o incentivo para tornar um artigo artificialmente "sexy", forçar a barra para torná-lo mais atrativo para uma audiência mais ampla (o equivalente ao caça-clique no mundo científico, ou o próprio caça-clique, já que a maioria dos trabalhos estão online): numa palavra "sensacionalismo". Seria, antes, um chamado para um esforço de garimpagem de artigos relevantes que estão abandonados a traças eletrônicas.

E ainda há esforços para evitar o "efeito gaveta" ou "efeito de arquivo" das publicações e o excesso de resultados positivos, por se deixar de publicar os negativos.

Então, meu grau de concordância com o artigo de Lattier depende do ponto que se enfatiza.
a) "Não publicar artigos irrelevantes": ok;
b) "Resistir ao publish or perish e não fatiar os resultados ('salami science') em vários artigos menores": ok;
c) "Pensar em artigos que possam atrair mais leitores": hmmm, acho que não é tão vital assim, pode ser um objetivo secundário;
d) "A baixa taxa de leitura mostra que a maioria da ciência produzida é irrelevante": de modo algum, há vários motivos por que artigos bons permanecem pouco conhecidos (o periódico pode ser pouco conhecido, a língua da publicação ser usada por uma fração restrita de pesquisadores, a comunidade de especialistas ser reduzida, preconceito, a comunidade ter falhado em compreender a importância do artigo, por simples casualidade o artigo não chamou a atenção...).

domingo, 30 de outubro de 2016

A reestruturação do MCTIC e alterações dos estatutos do CNPq

Raramente comento política científica diretamente aqui no GR. Não me considero capacitado o suficiente para análises mais aprofundadas.

Mas abro uma exceção para a reestruturação do Ministério da Ciência, Tecnologia, Inovações e Comunicações. Em parte porque posso me referir à análise de pessoas mais competentes: essa reestruturação levou à manifestação de contrariedade por entidades científicas: a SBPC e a ABC publicaram uma carta conjunta, apoiada pela SBF e por coordenadores de área da Capes.

As Fig. 1a e 1b sumarizam a organização do antigo MCTI, dada pelo Decreto 5.886/2006, e a nova organização do MCTIC, dada pelo Decreto 8.877/2016.

a)
b)
Figura 1. a) Antiga estrutura organizacional do MCTI (DEC 5.886/2006); b) novo organograma do MCTIC (DEC 8.877/2016).

O nome final do órgão, "Diretoria de Gestão de Entidades Vinculadas", é diferente do plano inicial, "Coordenação Geral de Serviços Postais e de Governança e Acompanhamento de Empresas Estatais e Entidades Vinculadas", mas o efeito é o mesmo. Entidades como o CNPq, que reportavam diretamente ao ministro, agora reportarão a um diretor de gestão, que reporta para o secretário-executivo, que reporta ao ministro.

"Art. 9o À Diretoria de Gestão de Entidades Vinculadas compete:
I - subsidiar a formulação de políticas, diretrizes, objetivos e metas relativos ao serviço postal e temas desenvolvidos pelas empresas estatais e pelas entidades vinculadas ao Ministério;
II - analisar pleitos tarifários do serviço postal;
III - concorrer para a articulação e a execução das políticas e dos programas das empresas estatais e das entidades vinculadas ao Ministério;
IV - realizar o acompanhamento da governança e do desempenho das empresas estatais e suas subsidiárias, bem como das entidades vinculadas ao Ministério;
V - contribuir para o aumento da transparência e para o aperfeiçoamento da gestão das empresas estatais, das suas subsidiárias e das entidades vinculadas ao Ministério;
VI - acompanhar a atuação dos representantes do Ministério nos conselhos de administração e fiscal das empresas estatais, nas suas subsidiárias e nas entidades vinculadas ao Ministério; e
VII - realizar a supervisão e o acompanhamento da governança e do desenvolvimento das empresas estatais e das suas subsidiárias, bem como das entidades vinculadas ao Ministério."

Se o objetivo foi racionalizar o processo, não parece ser uma boa escolha misturar órgãos tão díspares como o CNPq e a Anatel, Telebrás e Correios no mesmo cesto (o que reflete a mistura inusitada do ministério de CTI e Comunicações)... CNPq é uma fundação; Anatel, é uma agência reguladora (uma autarquia de regime especial); Correios, uma estatal; Telebrás, empresa mista. A única coisa em comum basicamente é o fato de serem entidades jurídicas distintas. A natureza, os objetivos, os modos de funcionamento... são muito diversos. Soa estranho - e errado - um mesmo órgão de categoria inferior definir preço de selos e políticas de fomento à pesquisa acadêmica. Já é bizarro em nível ministerial, mas se isso fosse tema para secretarias distintas do mesmo ministério... E, no caso, não apenas isso se dá numa mesma secretaria como numa mesma diretoria... (Talvez tenha ficado o nome de "Diretoria de Gestão de Entidades Vinculadas" porque ficaram envergonhados de denominar por "Departamento de Miscelânea".)

Outra alteração foi a antiga "Secretaria de Ciência e Tecnologia para a Inclusão Social", que também reportava diretamente ao ministro, agora é o "Departamento de Políticas e Programas para Inclusão Social", subordinado à "Secretaria de Políticas e Programas de Pesquisa e Desenvolvimento".

Na reportagem de Herton Escobar para o Estadão, de 27/out/2016, "Entidades científicas criticam reestruturação do MCTIC", o ministério diz que com a reformulação as entidades passarão a ter acesso a ferramentas de gestão (mas não diz quais) e que instituições sem interlocutores no ministério para questões de gerenciamento passaram a ter (também sem dizer quais instituições e quais questões). Mas, segundo a presidente da SBPC, Helena Nadar, o ministro Kassab teria se comprometido a reverter essa reestruturação ano que vem. Mas, se pretende rever, por que deixou que o decreto fosse publicado no dia 19/out se a reunião foi no dia 10/out? Se é possível reverter, qual é realmente a vantagem gerencial entrevista pelo MCTIC nessa nova configuração afastando a interlocução direta entre as entidades científicas do ministério e o próprio ministro?

O novo estatuto do CNPq dado pelo decreto 8.866/2016 é bastante parecido com o estatuto dado pelo decreto 7.899/2013. Mas parece haver algumas diferenças importantes.

Na parte de atribuição de funções dos órgãos específicos singulares da fundação:
2016 "compete coordenar as atividades de desenvolvimento científico e tecnológico relacionadas a [...] e fomentar a capacitação de recursos humanos e a implementação permanente de pesquisa científica e tecnológica."

2013 "compete coordenar as atividades de desenvolvimento científico e tecnológico relacionadas a [...] e fomentar a capacitação de recursos humanos e a implementação permanente de pesquisa científica e tecnológica, mediante ações, mecanismos e instrumentos de fomento."

No estatuto anterior havia explicitamente a menção da mecanismos e instrumentos de fomento; as diretorias das áreas tinham explicitamente a função de distribuir verbas para pequisa e formação de pessoal. Com a nova redação dada pelo novo estatuto, apenas o termo "fomentar" engloba tais poderes? Eu não sei (e por isso não sou uma boa pessoa para comentar a respeito de políticas científicas).

Praticamente desapareceu o capítulo referente às disposições financeiras. Somente o dispositivo que permite ao CNPq tomar empréstimos foi mantido, mas mudado para o capítulo de patrimônio e recursos financeiros. Não há mais obrigatoriedade de a fundação adotar o calendário civil para o exercício financeiro, nem uma obrigação explícita estatutária de apresentar o planejamento orçamentário para o MCTIC. (Não está claro para mim se tais obrigações foram extintas de todo, ou se são cobertas por outros dispositivos - mesmo que fora dos estatutos. Nem quais as consequências dessas alterações.)

Upideite(31/out/2016): Veja também:
Maurício Tuffani. Direto da Ciência (31/out/2016). "Rebaixamento de órgãos da Ciência é resultado da fusão ministerial em maio"
FCHSSA. Blog do FCHSSA (31/out/2016). "Reforma do MCTIC: carta do Fórum de CHSSA ao Ministro G. Kassab"
José Antônio Aleixo da Silva & Luciana Santos. JC Notícias (01/nov/2016); "2. Um golpe na ciência e tecnologia do Nordeste"
Carta da SBQ (28/out/2016). via Ildeu Moreira fb. (atualizado em 04/nov/2016)

domingo, 23 de outubro de 2016

Divagação científica - divulgando ciências cientificamente 28

Minhas anotações de Bruin & Bostrom 2013 sobre como fazer levantamento a respeito do que deve ser referido na comunicação pública de ciências.

---------------------------------
Bruin, W.B. & Bostrom, A. 2013. Assessing what to address in science communication. PNAS 111 (S-3): 14062-14068. DOI: 10.1073/pnas.1212729110

Barreiras à comunicação efetiva
.Especialistas não são bons modelos sobre não-especialistas a respeito do que e como se comunicar: em que os não-especialistas acreditam e o que ainda necessitam saber para tomar decisões informadas.
.Tendência a apresentar informações desnecessariamente complexas e a usar jargões.

Abordagem de modelos mentais
.Modelos mentais: pessoas tendem a interpretar novas informações à luz de suas crenças prévias;
.Abordagem de modelos mentais: participação tanto de especialistas quanto de não-especialistas em 4 etapas.
1. Identificar o que as pessoas necessitam saber para tomar decisões mais informadas (modelo de decisão por especialistas - expert decision model)
.Revisão da literatura;
.Painel de especialistas;
2. Identificar o que as pessoas já sabem e como elas toma suas decisões (modelo de decisão por leigos - lay decision model)
.Entrevistas semi-estruturadas para identificar as crenças e expressões (wording) relevantes;
.Levantamento de acompanhamento (follow-up surveys) com amostras maiores a fim de examinar a prevalência das crenças dos entrevistados;
3. Elaborar (design) o conteúdo a ser comunicado
.Comparar o modelo de decisão por leigos com o modelo de decisão por especialistas;
.Referir-se a lapsos comum e erros de concepção em palavras compreensíveis;
.Testar iterativamente a comunicação para a adequação e compreensão (com membros da audiência pretendida), bem como para a precisão (com o grupo de especialistas);
4. Testar a eficiência do conteúdo comunicado
.Conduzir testes aleatorizados controlados para verificar o efeito da comunicação (vs. controle) sobre a compreensão, tomada de decisão e comportamento dos dos recipientes.

Entrevistas semi-estruturadas
Objetivos e desafios.
.Caracterizar as crenças dos entrevistados sobre o tópico em consideração, incluindo falhas de conhecimento (knowledge gaps) e erros conceituais (misconceptions) que necessitam de intervenção, bem como a respeito de modos preferidos de expressão (wording);
.Questionar sem sugerir ideias ou terminologias específicas;
.Perguntas abertas como "você pode me falar mais sobre isto?" para encorajar mais discussões sobre o tópicos que surgirem;
.Após esgotar as explicações dos entrevistados, questões de acompanhamento podem ser mais direcionadas, objetivando cobrir sistematicamente as questões relevantes (como exposição ao risco, efeitos potenciais e mitigação) ou avaliar as definições leigas de termos preferidos pelos especialistas;
.Entrevistadores devem ser ouvintes ativos utilizando métodos de aconselhamento dos assistentes sociais ou de entrevistas etnográficas dos antropólogos: manter tom encorajador, não julgador, mesmo quando o entrevistador considerar incorreto ou imoral o que é partilhado pelo entrevistado, não interferir quando o entrevistado parar para buscar palavras;
.Entrevistadores devem se conter para não tentar educar os entrevistados sobre o tópico investigado, oferecer informações sobre folhetos e contatos com organizações de extensão somente ao fim da entrevista;
.Toda pesquisa com humanos devem ser previamente aprovadas pelo Comitê Interno de Pesquisa da instituição de pesquisa.
Modos comuns de entrevistas
.Entrevistas por telefone: permite uma maior abrangência geográfica;
.Entrevistas presenciais: pistas visuais (como indicação de fadiga ou confusão);
.Entrevistas com grupo focal (focus group): formação de decisão em grupos, não permite avaliar aprofundadamente a compreensão individual do tópico - entrevistados tendem a não expressar opiniões que não são compartilhadas com o restante do grupo.
Análise.
.Transcrição e codificação;
.Dois codificadores independentes devem concordar se os conceitos-chave para a tomada de decisão foram expressos pelo entrevistados;
.Novos códigos podem ser usados para conceitos não listados como chave pelos especialistas;
.Dois ou mais avaliadores devem ser treinados para a aplicação do código com entrevistas que são representativas, mas que não fazem parte do estudo, espera-se uma concordância na aplicação dos códigos na casa dos 70% para a confiabilidade (reliability) da codificação;
.Se dois conceitos são muito similares para os avaliadores distinguirem, eles podem ser agrupados em um único termo que abranja a ambos.
Amostragem.
.Por causa do grande trabalho demandado na realização e análise das entrevistas, geralmente elas são feitas até que se atinja a saturação - novas ideias e conceitos deixem de surgir;
.Tipicamente isso ocorre com 10 a 15 entrevistas;
.Para aumentar a probabilidade de se captar as ideias mais comuns, deve se procurar pessoas dos mais variados históricos (backgrounds) e dos diferentes grupos de interesse (stakeholders);
.Como os grupos são pequenos, tendem a não ser representativos;
.Pesquisas mais amplas (surveys) são mais eficientes para captar a frequência dos conceitos na população;
.Mas a fase de entrevistas ajuda a orientar a produção de questionários para as pesquisas.

Pesquisa de opinião pública (follow-up public perception survey)
Objetivos e desafios.
.Avaliar a prevalência na população de crenças específicas detectadas na fase de entrevistas iniciais e como elas e outros fatores dirigem as decisões;
.Questões estruturadas de conhecimento são recomendadas para as grandes amostras necessárias porque são mais fáceis de avaliar as respostas corretas do que questões abertas;
.Mas elas podem levar os respondentes a escolherem as opções de acordo com as pistas fornecidas;
.Questões de verdadeiro/falso são recomendadas no lugar de questões de múltipla escolha por fornecerem menos pistas aos respondentes;
.No entanto, a exposição a afirmações falsas podem levar à falsa memória nos respondentes de que elas sejam verdadeiras;
.O fornecimento de feedback formativo após o preenchimento do questionário pode diminuir esse problema;
.Questões de verdadeiro/falso podem ser seguidas de avaliação sobre o grau de certeza dos respondentes - variando de 50% (chute) a 100% (certeza);
.O uso da opção "não sei" tende a aumentar a taxa de ausência de respostas;
.O uso de opções "possivelmente verdadeiro" e "possivelmente falso" pode ser uma solução de compromisso ao grau de certeza do tipo "estou x% certo", mas oferece menos informação;
.Além de conhecimento, habilidades (numeracia, interpretação de gráficos) e preferência de riscos em diferentes domínios, atitudes e emoções também afetam a tomada de decisão pelas pessoas;
.Diferentes formatos de questões podem ser usados para avaliar as decisões: completar espaços em branco, escolher a melhor opção de um conjunto, classificar em ordem de preferência, avaliar cada item de acordo com escala (1=muito ruim a 7=muito bom);
.As questões podem afetar as respostas dos entrevistados;
.Uso de questões de múltipla escolha permite correlações entre as diferentes respostas eliciadas, mostrando a consistência das respostas;
.Para diminuir a dependência de auto-declarações, idealmente informações de comportamentos reais dos entrevistados devem ser obtidos por meio de observações independentes e registros em arquivos;
.As questões devem ser formuladas com palavras compreensíveis aos entrevistados;
.Realizar entrevistas cognitivas piloto ajuda a detectar possíveis mal entendidos das questões.
Métodos comuns de pesquisa de opinião
.Questionário em papel ou online, pessoalmente ou por telefone;
.Tempo, dinheiro disponível, habilidades e preferências dos respondentes, sensitividade do tópico devem ser levado em consideração para a escolha do modo de aplicação;
Análise
.Análise de regressão pode permitir ver como conhecimento e atitude se relacionam com decisão;
.Erros conceituais que parecem dirigir comportamento serão prioritários para intervenção.
Amostragem
.Seleção aleatória é mais provável de produzir amostra não-enviesada, mas pode ser difícil de implementar sem uma lista completa de membros das audiências específicas;
.Amostra de conveniência diversa pode ser suficiente nos casos em que se pretende apenas estabelecer correlação entre crenças e comportamentos.
---------------------------------

domingo, 16 de outubro de 2016

Produção de alimentos e mudanças climáticas

Uma das grandes preocupações com as mudanças climáticas é o impacto que elas têm sobre a produção de alimentos.

As grandes culturas vegetais: trigo, milho, soja, cevada, arroz e aveia - de 1960 a 2010, tiveram suas safras triplicadas; a quantidade de tubérculos e raízes: mandioca e batata, aumentou em 50% durante o mesmo período. Atualmente a produção de frango é cinco vezes a de seis décadas atrás; duas vezes e meia mais porcos são criados e 50% mais de gados bovinos, bubalinos, ovinos e caprinos. (Godfray et al. 2010.) Esse aumento foi essencial para atender ao crescimento da demanda com o correspondente aumento da população humana e mudanças nos padrões de consumo - embora a distribuição dessa produção seja ainda um grande desafio (uma fração substancial vive em regime de subnutrição).

Nos próximos 40 anos, a pressão para o aumento da produção deve continuar com o aumento da população mundial para estimados 9 bilhões de pessoas. (Godfray et al. 2010.) Mas as áreas com problemas de produtividade têm aumentado. Ray et al 2012, examinando dados de censos agropecuários ao redor do mundo de 1961 a 2008, encontraram que, a despeito de a produção crescer em várias áreas, em entre 24 e 39% das áreas de cultivo de milho, soja, arroz e trigo a produção não tem aumentado ou vem decaindo por vários motivos. Um esforço muito maior, então, acaba tendo que ser aplicado para que as áreas produtivas tenham uma safra suficiente para atender à demanda.

Além disso, as mudanças climáticas estão alterando as temperaturas - aquecimento global em função do aumento da concentração de CO2 -, e os padrões de pluviosidade. Como isso afeta a agricultura?

As temperaturas afetam a produtividade por:
a) acelerar o crescimento das plantas, reduzindo o tempo da safra, o que, para muitas culturas, significa uma menor produção;
b) alterando as taxas de respiração, fotossíntese e formação dos grãos;
c) elevando a pressão de vapor de saturação: aumentando as situações de déficit hídrico, aumentando a perda de água das plantas para a atmosfera;
d) temperaturas elevadas danificam as células diretamente;
*obs. por outro lado, o aumento da temperatura tende a diminuir a incidência de geadas - culturas sensíveis ao congelamento tendem a se beneficiar;
e) junto com teores mais altos CO2 de pode beneficiar pragas e doenças.
(Lobell & Gourdji 2012.)

O aumento de CO2 tende a ser benéfico para as plantas:
a) espécies de metabolismo C3 como milho, trigo e outros tendem a se beneficiar pela maior concentração de CO2 diminuir os custos energéticos dessa via fotossintética;
b) os estômatos podem permanecer mais tempo fechados, evitando a perda de água;
*obs. por outro lado, o valor nutricional das culturas pode ser afetado pela redução da concentração de proteínas uma vez que diminui a eficiência da absorção de nitratos do solo pelas plantas.
(Lobell & Gourdji 2012.)

Mas no balanço entre benefícios e prejuízos como tem sido o efeito das mudanças climáticas e quais as perspectivas dos efeitos futuros?

Lobell et al. 2011 analisaram as tendências de alteração de temperatura e precipitação nas áreas de cultivo dos quatro principais grãos (milho, soja, trigo e arroz) de 1960 a 2008. Não se detectaram mudanças em relação à pluviosidade, mas as temperaturas nas áreas de cultivo entre 1980 e 2008 estiveram mais altas cerca de 2 desvios padrões a mais em relação à variação entre 1960 e 2000. Na modelagem usada pelos autores, isso significou uma queda de 3,8% da produção do milho e de 2,5% na de trigo em relação a uma situação sem mudanças climáticas e sem aumento nos teores atmosféricos de CO2. Para a soja, deve ter havido um incremento de 1,3%, e de 2,9% para o arroz. Mas isso em uma escala global, em perspectiva local, houve perdas significativas para vários produtores importantes: a produção de soja no Brasil, p.e., deve estar cerca de 5% menor do que seria caso as temperaturas não tivessem aumentado (na Argentina, a produção de soja deve ter se beneficiado com uma produção cerca de 2 a 3% aumentada em relação a uma ausência de aumento global de temperatura); já na produção de milho, o impacto negativo das temperaturas mais elevadas são ainda maiores para o Brasil: uma perda entre 7 e 8% na produtividade, isso porque a cultura de milho não tende a se beneficiar com o aumento observador nos teores de COno ar.

Lobell et al. 2008 identificam o Sul da Ásia e o Sul da África como as regiões sob maiores riscos de sofrerem com queda de produção devido às mudanças climáticas, sendo as áreas prioritárias para as medidas de adaptações até 2030. As regiões tropicais são as que enfrentarão os impactos mais negativos até 2080 (Fig. 1), enquanto a agricultura das regiões temperadas e frias, especialmente do hemisfério norte, devem se beneficiar das alterações; exatamente as regiões com maiores índices absolutos e per capita de emissão de gases de efeito estufa (Fig. 2).

Figura 1. Impacto previsto das mudanças climáticas sobre a produção agrícola. Fonte: Wikimedia Commons.

a)
b)
Figura 2. Emissões de equivalentes de CO2  por país: a) emissões totais (ano base 2005); b) per capita . Fonte: a) Wikimedia Commons b) Wikimedia Commons.

Challinor et al. 2014, em uma meta-análise de mais de 1.700 artigos, concluem que um aumento de 2°C ou mais na temperatura média local deve levar a uma queda de cerca de 20% na produção dos grãos. Mas medidas de adaptação (alteração no calendário de plantio, uso de fertilizantes, irrigação, cultivares adaptados e outras medidas agronômicas) podem aumentar a produção em 7 a 15% contrabalançando o efeito das perdas pelas alterações climáticas: a adaptação de cultivares tendo o maior efeito, seguido da irrigação; e tendo maior efeito para o trigo e arroz do que para o milho. Mas as perdas pelas alterações podem ser ainda maiores porque, até o momento, os modelos utilizados pouco levam em conta o aumento da incidência de pragas e doenças com o aumento das temperaturas e variação da pluviosidade.

domingo, 9 de outubro de 2016

Divagação científica - divulgando ciências cientificamente 27

Minhas anotações do artigo de Eveland & Cooper (2013) onde os autores apresentam um modelo integrado da influência dos meios de comunicação sobre as crenças a respeito das ciências.

---------------
Eveland, W.P.Jr. & Cooper, K.E. 2013. An integrated model of communication influence on beliefs. PNAS 110:14088–14095.

Padrões das Informações Científicas no Conteúdo das Mídias
.a maior parte dos artigos científicos na imprensa são sobre saúde e medicina;
.cobertura de um tópico científico na mídia varia de mídia para mídia (e.g. telejornal ou jornal impresso; telenovela ou romance), de local para local, ao longo do tempo e de acordo com o tópico;

Padrões de Seletividade na Exposição Midiática
.a escolha das mídias através das quais obter informação e entretenimento varia de indivíduo;
.essa escolha sofre influência do status socioeconômico do indivíduo (p.e. indivíduos com renda e educação mais altas consomem mais informação veiculadas por meio de jornais do que indivíduos de menor renda e escolaridade);
.também é influenciada pela visão política (pessoas com tendências mais conservadores procuram mais mídias com visões alinhadas a elas; indivíduos com visão mais liberal tendem a procurar mídias e programas igualmente mais liberais);
.idade e sexo também influem. Homens e mais velhos (e de maior renda e escolaridade) tendem a consumir mais notícias do que entretenimento.

Indícios de impacto das mídias
.Modelo de Mediação Cognitiva
.importância da motivação em dirigir o nível de processamento de informações em que os indivíduos se engajam com a exposição à mídia e a importância do processamento da informação na aprendizagem através da mídia;
.a motivação sozinha não leva ao conhecimento; ela leva ao conhecimento através do encorajamento da atenção ao conteúdo relevante da mídia e à elaboração dela, aumentando a probabilidade de sua memorização e recuperação posterior da informação;
.o conhecimento adquirido através da mídia influencia no processamento de novas informações mediadas;

Hipótese do Desvão de Conhecimento ('knowledge gap')
.o impacto da mensagem midiática no conhecimento e crença dos indivíduos não é uniforme em todos os segmentos da sociedade;
.indivíduos com maior status socioeconômico (SSE) - principalmente com maior nível educacional - aprendem de modo mais rápido e efetivo as informações mediadas;
.a educação tanto guia a comunicação (uso da mídia e discussão da informação) quanto modera seu efeito - com maior efeito entre os de nível educação maior: com o tempo pode aumentar o desvão de conhecimento entre os grupos;
.a motivação tem efeito similar ao SSE: utilidade da informação baseada na necessidade e desejos guiam sua busca e retenção;
.o desvão pode ser tanto aumentado quanto diminuído de acordo com as formas de comunicação;

Teorias de Cognição Cultural/Hipótese do Desvão de Crença ('belief gap')
.teorias da cognição cultural: papel dos valores na moderação da influência das mídias;
.indivíduos são avarentos cognitivos: realizam o menor esforço mental possível para atingir um objetivo;
.assim lançam mão pesadamente de esquemas culturais para realizar o processamento informacional;
.os valores modelam e enviesam os pensamentos;
.a mesma informação é processada de modo diferente por indivíduos com valores diferentes - ajustam a nova informação aos valores que possuem previamente;
.hipótese do desvão de crença: efeito similar à hipótese do desvão de conhecimento, mas com ideologias políticas fazendo o papel do SSE;
.na medida em que uma questão política é politizada, as diferenças nas crenças entre os diferentes grupos de ideologia política aumentam com a maior atenção midiática ao tema;

Hipótese dos Ganhos Diferenciais/Hipótese da Interação Intramidiática ('differential gains/intramedia interaction')
.hipótese dos ganhos diferenciais: influência do uso de mídia é determinada em parte pela presença ou ausência de discussão interpessoal;
.a discussão de um tópico encontrado na mídia melhora a compreensão e aumenta a lembrança posterior da informação;
.hipótese da interação intramidiática: o impacto do uso da mídia entre diferentes fontes e canais não tem efeito somente aditivo;
.o impacto de uma fonte (p.e. FoxNews vs CNN) ou forma (p.e. CNN vs CNN.com) depende de qual outra fonte/forma é utilizada também;
.uso de fontes redundantes leva um retorno diminuído ao invés de aditivo, uso de fontes diversas complementares pode levar a um efeito aditivo ou sinergístico;

Mediação Intramidiática/Intracomunicacional ('intramedia/intracommunication mediation')
.mediação intramidiática: as formas de comunicação não são contribuidores independentes do efeito da mídia, mas trabalham em conjunto na produção do efeito;
.uma forma de comunicação pode levar ao uso de outra forma de comunicação, assim o impacto da mídia na crença pode ser ao mesmo tempo direto e mediado (ao usar outra forma de comunicação) (p.e. ver a notícia de uma descoberta científica no telejornal matinal pode levar à busca de mais informações - ou de visão diferente - sobre o tema em outros sites noticiosos);
.mediação intracomunicacional: o mesmo efeito pode se dar entre os usos das mídias e as discussões interpessoais;
.o efeito da mídia de massa pode incitar discussões interpessoais alterando as crenças em última instância ou antecipação de discussões pode levar a um uso preparatório da mídia, também alterando as crenças;

Modelo de Espirais de Reforço ('reinforcing spirals')
.modelo de espirais de reforço: reciprocidade entre a seleção de mídia e os efeitos;
.embora o uso de mídias possa alterar as crenças científicas, certas crenças científicas pode influenciar a extensão de uso de mídia, bem como levar a exposição seletiva de certas mensagens midiáticas;

Modelo Estendido da Probabilidade de Elaboração e Modelo de Superação da Resistência pelo Entretenimento ('Extended Elaboration Likelihood Model/Entertainment Overcoming Resistance Model')
.modelo estendido da probabilidade elaboração: salienta a ampla gama de motivações na seleção de diferentes formas de mídia e na implicação dessas motivações sobre como as informações são processadas;
.modelo de superação da resistência pelo entretenimento: a partir do EELM, procura explicar como certas características do conteúdo narrativo da mídia (como programas de ficção da TV e filmes) podem superar a resistência a mensagens embutidas;
.quando indivíduos estão conscientes de uma mensagem, eles podem resistir a elas pela reatância (resistência à pressão da mensagem para a mudança) e contra-argumentação (produção de pensamentos que contradizem a mensagem persuasiva);
.mídia de entretenimento pode reduzir essas formas de resistência pelo maior envolvimento com a narrativa;

Hipótese da Cultivação ('cultivation')
.hipótese da cultivação: quanto mais tempo um indivíduo passa no mundo de uma mídia, mais suas crenças sobre o mundo real serão similares ao conteúdo do mundo dessa mídia;
.o uso intensivo de uma mídia correlaciona-se positivamente com a posse de crenças consistentes com a mídia, a despeito da representação da realidade dessa mídia ser ou não objetivamente correta.

Modelo Integrado da Influência da Comunicação sobre Crenças (Científicas): IMCIB


Figura 1. Modelo Integrado de Influência da Comunicação sobre Crenças. Fonte: Eveland & Cooper 2013.

Antecedentes ('priors'): fatores mais ou menos estáveis e de longa duração que podem ter pelo menos uma influência indireta (por meio da exposição comunicativa e processamento) sobre as crenças;
.sociodemografia: sexo, renda, raça, nível educacional...
.ideologia política;
.motivação: interesse em um tópico em particular, temas relevantes para o emprego, desejo de fazer uma escolha acertada (e.g. eleições e compras);
.afetam a crença através da exposição à comunicação e processamento ou por variáveis que diminuem ou aumentam o impacto da exposição à comunicação e processamento, podem ter efeitos direitos também;

Efeitos diretos da comunicação: efeitos simples e direitos sobre a crença são esperados desde que a mídia veicule um mínimo de informações relevantes para a crença;
.os estudos sobre o efeito da mídia na crença devem apresentar dados empíricos ou premissas explícitas sobre a natureza do conteúdo da mídia;

Processos de mediação: embora alguns efeitos diretos sejam esperados, a maior parte deve se dar por processos mediados:
1) a maior parte da mediação deve se dar pelo processamento das informações, ainda que algum aprendizado automático e não intencional possa ocorrer;
2) o uso de uma forma de comunicação tem impacto no uso de outras formas;
3) informação mediada pode estimular discussão interpessoal ou antecipação de discussões pode levar à busca de informações na mídia;

Processos moderadores: exposição a determinadas formas de comunicação são mais efetivas para certos subgrupos (como com maior SSE e educação);
.maior eficiência quando a informação é consistente com valores preexistentes (por exposição seletiva e por haver maior tendência à contra-argumentação para informações dissonantes);
.a contra-argumentação pode variar de acordo com o formato (noticário, entretenimento, publicidade...);
.o efeito da exposição à mídia pode ser amplificado pela presença de discussão interpessoal relacionada;
.exposição a mídias redundantes pode levar a um retorno diminuído, se complementares o efeito pode ser sinergístico;

Causalidade recíproca: muitos dos processos acima, ao menos em parte, são influenciados por alças de retroalimentação;
.a construção de um conjunto de crenças facilita o processamento e compreensão de futuras mensagens similares;
.a crença derivada da comunicação pode levar à alteração de valores e ideologias, e da exposição futura à comunicação;

Questões sobre a aplicabilidade do IMCIB
.validação dos testes de auto-resposta de processamento cognitivo;
.validade ('validity') e confiabilidade ('reliability') dos métodos de pesquisa de opinião quanto à exposição à mídia;
.necessidade de painel a ser testado ao longo do tempo: qual o intervalo para as medições? dificuldades para projetar e implementar os painéis pelas relações de ganhos e perdas de informação;
.cautela com modelos estatísticos ao avaliar simultaneamente todas as sub-hipóteses presentes no IMCIB - os testes devem ocorrer contra modelos alternativos explícitos e não apenas de ajustes de dados contra o IMCIB;
.a formulação atual do IMCIB é em nível de efeito individual;
.o IMCIB foi elaborado com base em um contexto cultural específico, com os subprocessos modelados para indivíduos de culturas ocidentais, educadas, industrializadas, ricas e democráticas.

domingo, 2 de outubro de 2016

Volta ao Mundo com Zika Camargo: 2 - Tanzânia

Tanzânia, ou República Unida da Tanzânia, é um país da África Oriental, como Uganda, com quem faz fronteira ao norte; também ao norte fica Nigéria; a oeste ficam Ruanda, Burundi e República Democrática do Congo; ao sul, Zâmbia, Malaiu e Moçambique e a leste o Oceano Índico. (Fig. 1)

Figura 1. Tanzânia. Fonte: Google Maps.
Ela é resultado da fusão de duas repúblicas independentes: a República de Tanganica, que se tornou independente do Império Britânico em 1961, e da República Popular de Zanzibar e Pemba, surgida em 1964 após a Revolução Zanzibar no Sultanato de Zanzibar, então parte da Colônia do Quênia do Império Britânico. A área continental corresponde ao território da República de Tanganica, a ex-República de Zanzibar ocupava as ilhas do arquipélago de Zanzibar à costa da atual Tanzânia.

Em 1950, a população estimada para o atual território da Tanzânia, era de 7,65 milhões de habitantes; em 2015, eram 53,47 milhões. (Fig. 2)

Figura 2. Evolução da população da Tanzânia (1950-2100). Fonte: UN World Population Prospects.

Menos de um ano após a publicação do anúncio da descoberta do vírus zika (ZIKV), saiu um estudo de Kenneth C. Smithburn (1952), outro pesquisador da Rockefeller Foundation, em que testou o sangue de 297 pessoas de Uganda e do então Território de Tanganica para a presença de anticorpos contra 8 vírus isolados em Uganda, entre os quais o ZIKV.

Juntamente com os resultados de Dick, 1952 para as localidades de Bwamba e Nilo Ocidental em Uganda; era a primeira demonstração de infecção prévia de ZIKV em humanos (embora Simpson 1964, reporte um MacNamara 1951, parece ser um erro, devendo mais se referir a MacNamara 1954).
----------------
Veja também: Parte 1 - Uganda.

domingo, 25 de setembro de 2016

Divagação científica - divulgando ciências cientificamente 26

Abaixo, minhas anotações sobre o efeito do assombro (awe) na apresentação de fatos científicos conforme o trabalho de Valdesolo e cols..
----------------------
Valdesolo, P. et al. 2016. Awe and scientific explanation. Emotion. DOI: 10.1037/emo0000213.

Estudo 1. Efeito do assombro e teísmo sobre a crença na ciência.
158 (127 com resultados finais válidos) alunos de graduação (97 do sexo feminino, 19,66 anos de idade média).
.Testes por meio de computador em troca de crédito acadêmico.
.Respostas a 7 questões sobre religiosidade e crença no sobrenatural, incluindo um sobre o grau de teísmo (escala de 6 pontos de 1 "ateu convicto" a 6 "crente convicto"):  Sem diferença entre os grupos - M_awe = 3,38±1,29; M_amuse = 3,51±1,35; M_neut = 3,73±1,3; F(2,124) = 0,763; correlação entre nível de religiosidade e crença nas ciências r(127) = -0,46, p<0 p="">.Visualização a um de três tipos de vídeos sobre natureza: neutro, indutor de assombro, indutor de diversão.
.Respostas a 10 questões sobre crença epistemológica a respeito de as ciências serem "um guia superior, ou até exclusivo, para a realidade e possuindo um valor único e central" (escala de 6 pontos de 1 "discorda fortemente" a 6 "concorda fortemente": e.g. "Podemos acreditar racionalmente apenas no que pode ser demonstrado cientificamente" ["We can only rationally believe in what is scientifically provable"]): Sem diferença entre grupos (em relação às médias das respostas dos grupos) - (M_awe = 3,56±1,13; M_amuse = 3,65±0,88; M_neut = 3,65±0,79; F = 0,126. Padronizando o índices de religiosidade pela média e atribuindo os valores 2 (assombro), -1 (neutro) e -1 (diversão) para as condições; não houve efeito da condição, houve efeito da religiosidade (b = -0,332, β = -0,467, p < 0,001) e houve interação entre religiosidade e condição (b = -0,116, β = -0,224, p = 0,005, IC 95%  = [-0,196, -0,037]) - a inclinação da curva de regressão a +/- 1 DP mostra que os teístas apresentaram a menor crença em ciências na condição de assombro (b = -0,221, β = -0,329, p = 0,005, IC 95% = [-0,373, -0,069]), entre os não-teístas não houve efeito da condição.
Resopstas a 8 questões de conferência de manipulação da emoção (escala de 7 pontos de 1 "nem um pouco" a 7 "extremamente").

Estudo 2. Efeito do assombro e do teísmo sobre a crença na ordem científica (scientific order).
413 (364 respostas válidas) participantes (221 mulheres, 35,6 anos de idade média) por meio do serviço Amazon Mechanical Turk em troca de 1 USD pela participação.
.Mesmo procedimento do estudo 1 com substituição do índice de crença nas ciências por crença na ordem científica: escala de 1 ('nem um pouco provável') a 6 ('extremamente provável') para as questões: "os eventos que ocorrem no mundo podem ser totalmente explicados pelas ciências", "os princípios das ciências conferem ordem e previsibilidade ao mundo", "o curso da evolução segue certos caminhos, não é o resultado apenas de processos aleatórios";
.Não houve diferenças significativas nos índices de crença em ordem científica entre as condições: M_awe = 4,09±1,36; M_amuse = 4,13±1,22; M_neut = 4,22±1,19; F = 0,344.
.Não houve efeito da condição; houve efeito da religiosidade (b = -0,401, β = -0,532, p < 0,001); e houve interação entre religiosidade e condição (b = -0,055, β = -0,104, p = 0,019, IC 95% = [-0,102, -0,009]); teístas (com índice 1DP acima da média do índice de religiosidade) apresentaram uma menor crença na ordem científica na condição de assombro (b = -0,122, β = -0,109, p = 0,05, IC 95% = [-0,218, 0,00]); não houve efeito da condição entre não-teístas (1 SD abaixo da média no índice de religiosidade).

Estudo 3. Efeito do assombro sobre atitude em relação a teorias científicas explicitamente enquadradas sob ordem ou aleatoriedade.
.161 (137 respostas válidas) participantes (81 mulheres, idade média de 37,5 anos) por meio do serviço  Amazon Mechanical Turk em troca de 1 USD por participação.
.Mesmo procedimento do estudo 1, exceto pela substituição do teste sobre crença em ciências por perguntas relacionadas a uma teoria 1 (enfatizando o papel da aleatoriedade e imprevisibilidade) e a uma teoria 2 (enfatizando o papel da ordem e da estrutura): os participantes deveriam dizer qual fornecia "a melhor explicação para a origem da vida neste planeta", e outra pergunta (em escala de 1 "nem um pouco" a 7 "extremamente") sobre qual das duas se ajusta melhor à visão do participante sobre a origem da vida. Não houve efeito da condição; houve efeito da religiosidade ((b = 0,510, OR = 1,665, p < 0,001); e houve interação entre religiosidade e condição (χ2 (1.133) = 4,544, p = 0,03); o assombro aumentou a preferência dos não-teístas para a explicação enfatizando a ordem, mas não teve efeito sobre os teístas; não-teístas apresentaram uma maior pontuação no ajuste da teoria 2 a suas visões na condição de assombro em relação às condições controle (b = 1,083, β = 0,332, p = 0,004); entre os teístas não houve diferenças significativas.
----------------------

A caracterização da teoria da evolução por Valdesolo e cols. de uma que enfatiza o papel do acaso é estranha - a seleção natural é uma causa da adaptação, não é algo ao acaso. De todo modo, isso não (aparentemente) afeta os resultados obtidos.

ht @Carlos Orsi fb

LinkWithin

Related Posts with Thumbnails