PESQUISA

Participe da votação sobre os melhores canais de divulgação científica em português na internet.

quarta-feira, 30 de maio de 2012

Como é que é? - Aparelhos de teste de voz pra detectar mentiras?

ResearchBlogging.orgNão é de hoje que se recorrem aos tais aparelhos detectores de mentira. Pretensamente captam sinais emitidos pelo corpo humano que se associam a situações em que contamos inverdades.

O mais famoso e antigo é o polígrafo, criado em 1921, que mede sinais fisiológicos como pressão sanguínea e umidade da pele. A suposição é de que o indivíduo, ao contar uma mentira, fica nervoso - sua pressão sobe e aumenta a sudorese. Como há indivíduos que têm pressão mais alta ou que suam mais, é feita uma rodada de teste em que o indivíduo deve responder a algumas perguntas de modo verdadeiro e a outras de modo falso (claro que as perguntas se referem a elementos verificáveis como nome, número de identidade, endereço, profissão...): uma fase de calibragem do aparelho.

Uma geração mais nova usa software de análise de som. Sinais como timbre e intervalo entre as falas estariam correlacionados a enunciações inverídicas. Outros analisam o movimento dos olhos do indivíduo enquanto fala.

E há pesquisas para o desenvolvimento de imageamento funcional cerebral (fMRI).

Nos EUA tais dispositivos são usados corriqueiramente pela polícia na análise de depoimentos, pelo governo para o recrutamento de pessoal, sendo ocasionalmente aceito como provas em processos judiciais. Na TV é o astro de programas desde a década de 1950: seja em séries ficcionais, em entrevistas de celebridades, seja em games shows nos quais os candidatos a prêmio são eliminados se o aparelho disser que faltou com a verdade ao responder a perguntas cada vez mais íntimas e constrangedoras.

O Brasil importou esses formatos de programas televisivos. E agora está a ser utilizado como elemento de reportagens, analisando declarações públicas de personalidades.

Mas qual o grau de confiabilidade nesses resultados? Melhor do que bancar Harvey Dent jogando uma moeda para dizer se o indivíduo está mentindo ou dizendo a verdade, porém deixa muito a desejar. Essa é conclusão de um painel de especialistas do National Research Council dos EUA que revisou 57 estudos sobre a validade do polígrafo (National Research Council 2003).

Sobre os indícios de precisão dos polígrafos (National Research Council 2003):
"CONCLUSION: Notwithstanding the limitations of the quality of the empirical research and the limited ability to generalize to real world settings, we conclude that in populations of examinees such as those represented in the polygraph research literature, untrained in countermeasures, specific-incident polygraph tests can discriminate lying from truth telling at rates well above chance, though well below perfection. Because the studies of acceptable quality all focus on specific incidents, generalization from them to uses for screening is not justified. Because actual screening applications involve considerably more ambiguity for the examinee and in determining truth than arises in specific-incident studies, polygraph accuracy for screening purposes is almost certainly lower than what can be achieved by specific-incident polygraph tests in the field."
"CONCLUSION: Basic science and polygraph research give reason for concern that polygraph test accuracy may be degraded by countermeasures, particularly when used by major security threats who have a strong incentive and sufficient resources to use them effectively. If these measures are effective, they could seriously undermine any value of polygraph security screening."
["CONCLUSÃO: Apesar das limitações da qualidade da pesquisa empírica e da habilidade limitada para generalizar para as condições do mundo real, concluímos que nas populações dos examinados como as representadas na literatura de pesquisa sobre polígrafos, sem treinamento em contramedidas, testes de polígrafo específicos para o caso pode discriminar as falas mentirosas das verdadeiras a uma taxa bem acima do acaso, embora bem abaixo da perfeição. Como todos os estudos de qualidade aceitável focam-se em casos específicos, generalizar a partir disso para o uso em  varredura/filtragem não é justificável. Como as aplicações reais de  varredura/filtragem envolvem consideravelmente mais ambiguidade para os examinados e na determinação da verdade do que surge em estudos de casos específicos, a precisão do polígrafo para fins de  varredura/filtragem quase certamente é mais baixa do que pode ser atingida em testes de campo de polígrafo em casos específicos."
"CONCLUSÃO: A ciência básica e a pesquisa de polígrafo dão razão para a preocupação de que a precisão do teste de polígrafo pode ser reduzida por contramedidas, particularmente quando usado pelas principais ameaças à segurança, que têm um forte incentivo e recursos suficientes para usá-las de modo efetivo. Se essas medidas são efetivas, elas podem minar seriamente qualquer valor do polígrafo em varredura/filtragem de segurança."]

O índice de precisão do polígrafo em laboratório foi em média de 86% e, em campo, de 89%, isto é, entre 14 e 11% dos diagnósticos eram errados (falsos positivos e falsos negativos) (National Research Council 2003). Em um estudo com 126 condenados por crimes sexuais, Grubin et al. (2006) obtiveram uma sensibilidade (taxa de detecção de positivos verdadeiros) de 83% e uma especificidade (taxa de detecção de negativos verdadeiros) de 70% - isto é, uma taxa de falsos negativos de 17% e de falsos positivos de 30%.

Para a fMRI a situação parece ser um pouco melhor, mas ainda assim problemática segundo análise de Simpson (2008):
"Thus far, under carefully controlled experimental conditions, an accuracy of 90 percent is the best that has been achieved. Improvements in the technology that would reduce the error rate from 10 percent to something comparable with the billions-to-one accuracy of DNA testing are difficult to conceive of, given the mechanics of the science involved.
Perhaps more important, the technique does not directly identify the neural signature of a lie. Functional MRI lie detection is based on the identification of patterns of cerebral blood flow that statistically correlate with the act of lying in a controlled experimental situation. The technique does not read minds and determine whether a person's memory in fact contains something other than what he or she says it does. The problem of false-positive identification of deception is unlikely to be overcome to a sufficient degree to allow the results of an fMRI lie detection test to defeat reasonable doubt."
["Até o momento, sob condições experimentais cuidadosamente controladas, uma precisão de 90 porcento é o melhor que foi atingindo. Melhorias na tecnologia que podem reduzir a taxa de erro de 10 porcento para algo comparável a um erro de um em bilhões do teste de ADN são difíceis de se conceber dado a mecânica da ciência envolvida.
Talvez mais importante, a técnica não identifica diretamente a assinatura neural da mentira. A detecção de mentira por fMRI é baseada na identificação dos padrões de fluxo sanguíneo cerebral que se correlaciona estatisticamente com o ato de mentir em situação experimental controlada. A técnica não lê mentes nem determina se a memória de uma pessoa de fato contém algo além do que ele ou ela diz que contém. O problema da identificação de mentira falsamente positiva é improvável de ser superado a um grau que permita aos resultados de um teste de detecção de mentira por fMRI eliminarem a dúvida razoável."]

A pior condição parece ser justamente o de análise de voz, a mais popular atualmente (ao menos no que se refere a uso de entretenimento e jornalístico), Harnsberger et al. (2009) em um estudo com 48 sujeitos experimentais conclui:
"The results showed that the 'true positive' (or hit) rates for all examiners averaged near chance (42–56%) for all conditions, types of materials (e.g., stress vs. unstressed, truth vs. deception), and examiners (scientists vs. manufacturers). Most importantly, the false positive rate was very high, ranging from 40% to 65%. Sensitivity statistics confirmed that the LVA system operated at about chance levels in the detection of truth, deception, and the presence of high and low vocal stress states."
["Os resultados mostraram que a taxa de 'positivo verdadeiro' (ou acerto) para todos os examinadores tiveram uma média próxima ao acaso (42-56%) para todas as condições, tipos de materiais (e.g. sob tensão vs. relaxado, verdade vs. mentira) "] e examinadores (cientistas vs. fabricantes). Mais importante, a taxa de falso positivo foi bastante alta, variando de 40% a 65%. Estatística de sensibilidade confirmou que o sistema LVA operou no nível do acaso na detecção da verdade, mentira e presença de estados de tensão vocal alta ou baixa."]

Em um teste de campo com 300 pessoas detidas, apenas 15% das mentiras sobre uso de droga foram detectadas pela análise de voz.

Gostaria de achar um estudo comparativo entre esses sistemas de detecção de mentira e o simples palpites de pessoas - especialistas e não-especialistas. Seria interessante verificar o quão bem (ou quão mal) se saem esses testes pretensamente objetivos frente a análises mais subjetivas.*

De todo modo, são métodos ainda bastante falhos para os fins a que se destinam; caso sejam os únicos elementos para a formação de convicção a respeito de declarações, grandes injustiças podem ocorrer com probabilidade da ordem de 10% ou, no pior dos casos, a uma razão indistinguível do acaso.

Referências
Grubin, D. 2006. Accuracy and utility of post-conviction polygraph testing of sex offenders The British Journal of Psychiatry, 188 (5), 479-483 DOI: 10.1192/bjp.bp.105.008953
Harnsberger, J., Hollien, H., Martin, C., & Hollien, K. 2009. Stress and Deception in Speech: Evaluating Layered Voice Analysis Journal of Forensic Sciences, 54 (3), 642-650 DOI: 10.1111/j.1556-4029.2009.01026.x
National Research Council 2003. The Polygraph and Lie Detection. Committee to Review the Scientific Evidence on the Polygraph. Division of Behavioral and Social Sciences and Education. Washington, DC: The National Academies Press.
Simpson JR 2008. Functional MRI lie detection: too good to be true? The journal of the American Academy of Psychiatry and the Law, 36 (4), 491-8 PMID: 19092066

*Upideite(01/jun/2012): Achei um artigo que se refere a resultados de outros estudos sobre o desempenho de humanos na detecção de mentira. São 9 estudos em que o acerto ao acaso era de 50%, as taxas de acerto por humanos variaram de 48 a 72%; em 1 estudo em que o acerto ao acaso era de 33,3%, os humanos acertaram 38% das vezes. Contra a chance de acerto ao acaso de 50%, a taxa média de acerto foi de 57,0±7,8%. Em outro artigo, revisando 206 estudos, a taxa de acerto média foi de 54% (47% de sensibilidade e 61% de  especificidade). Em outra meta-análise, com 108 estudos, não houve diferença entre pessoas treinadas: policiais, juízes, investigadores, psicólogos e não treinadas: alunos e outras pessoas - 55,51% contra 54,22%.

sexta-feira, 25 de maio de 2012

Como é que é? - Escala Richter vai até 9?

ResearchBlogging.orgCom alguma regularidade, ouvimos/lemos na imprensa leiga em notícias sobre tremores que o abalo foi de tantos graus na escala Richter e vem o complemento: "que vai até 9". Abaixo alguns exemplos:


A escala vai mesmo até 9?

A chamada escala Richter foi desenvolvida pelos sismólogos Charles Francis Richter, americano, e Beno Gutenberg, alemão, em meados da década de 1930 (Richter 1935) e aperfeiçoada nos anos seguintes (e.g. Gutenberg & Richter 1944). Ela expressa a energia liberada durante um tremor e se baseia na oscilação de maior amplitude em um registro do abalo e está em escala logarítmica: um tremor que tenha um valor Richter maior em 1 unidade do que outro terá liberado 10 vezes mais energia. ("The magnitude of an earthquake was originally defined as proportional to the logarithm of the maximum trace amplitude on the seismogram of a standard torsion seismometer distant 100 km." ["A magnitude de um terremoto foi originalmente definida como proporcional ao logaritmo da amplitude máxima do traço no sismograma em um sismógrafo padrão de torção distante 100 km."] Anônimo 1945.) Uma nota menor: a escala não se mede em graus; fala-se "de magnitude X na escala Richter".

O valor de magnitude 1 corresponde a 1.955.262 joules. Para comparação, uma dieta normal de um adulto (2.000 kcal/dia) corresponde a uma ingestão diária de alimentos correspondente a 8.368.000 joules de energia. Tremores de menor intensidade terão um valor negativo de magnitude Richter - uma liberação nula de energia corresponderia a um limite de infinito negativo de magnitude Richter. O valor M = 0 foi definido de modo a corresponder ao abalo de menor intensidade registrado pelos sismógrafos da época (Gutenberg & Richter 1944). Na outra ponta, como não há limite teórico de energia que pode ser liberada, a magnitude Richter pode ir a mais infinito.

Na prática, o abalo de maior intensidade já registrado é de magnitude 9,5 - em 1960, no Chile (acima, portanto do tal limite inexistente 9): energia correspondente a que um ser humano precisaria ingerir ao longo de cerca de 3,7 bilhões de anos (mais ou menos o tempo em que deve haver vida na Terra), ou aproximadamente o equivalente a 47 bombas atômicas como a que foi detonada sobre Hiroshima.

Por ano, ocorrem quase 1 milhão de abalos suficientemente fortes para serem registrados por sismógrafos espalhados pelo globo, felizmente a imensa maioria (mais de 95%) são de intensidade tal que as pessoas simplesmente não notam. Os que podem causar algum estrago, a maioria ocorre em regiões desabitadas. Mas os poucos que ocorrem em regiões densamente povoadas (ou próximos a elas) com intensidade suficientemente forte - de magnitude 7 ou maior - podem causar sérios estragos: em termos materiais e de vidas humanas, como o de março de 2011 no Japão.

Há outras escalas, como a de intensidade de Mercalli que analisa o grau de efeito na superfície (importante para ações da defesa civil, p.e.), modificação da escala Rossi-Forel.

Mas de onde veio essa história? Buscando nos arquivos da Folha de São Paulo por "Richter" + "que vai até 9", obtêm-se 11 resultados. O primeiro de 4/jan/1983 e o mais recente de 30/out/2008. Buscando-se por "Richter" + "terremoto", são 927 resultados. Proporcionalmente 11 em 927 não é muito, mas parece indicar (junto com sua presença em vários outros veículos) que o mito está bem arraigado. O primeiro resultado da segunda busca é datado de 28/dez/1963: "CIÊNCIA: Terremotos violentos após 3 anos de calma" (2o caderno, p. 3), a frase final da nota é: "Os mais violentos terremotos atingem magnitudes de cerca de 8,9. ('Science Service')" - talvez essa seja a origem do mito: nos anos iniciais de aplicação da escala Richter, os maiores não atingiam magnitude 9.

Mas o do Chile de 1960, não foi de 9,5? Esse valor foi obtido após recálculo. Na época, sua estimativa foi menor: de 8,5. Curiosamente, na Folha, em reportagem de 29/mar/1965, sobre abalo em Llay Llay, no Chile, registra-se: "Confirmou-se que o grau de intensidade do sismo em Llayllay foi de 12 graus, segundo a escala internacional de Richter". Aparentemente confundiram com a escala Mercalli. (Na escala Richter estima-se tenha alcançado magnitude 7,4.) Mas confusão foi internacional, o The Daily Register de Red Bank, NJ, EUA, anota: "The quake, which registered 10 on the Richter scale of 12..." Esse limite de 12 para a escala Richter, torna a aparecer na Folha, em 02/ago/1968: "Segundo o serviço de meteorologia de Manila, atingiu 6 pontos na escala Rossi-Forel, de 10, 7 na escala Richter, de 12."

Em reportagem de 04/set/1968, o falso limite muda para 10: "Um outro tremor de terra abalou o sul da Armênia, tendo atingido intensidade 8 na escala Richter, de 10, segundo foi revelado em Moscou."

No acervo do Estadão, uma busca por "Richter"+"que vai até 9" não retorna nenhum resultado; "Richter"+"terremoto" retorna 832 resultados (primeira ocorrência de 14/jul/1968). Parece promissor, mas uma reportagem de 19/jul/1969 diz: "Segundo a agência TASS, que deu a notícia, o sismo foi de grau 9 ou 10 na escala Richter, que tem 12 graus." Em 31/dez/1972: "Outro caso foi apresentado pelo professor Jean Pierre Rothé, da Universidade de Estrasburgo: ele afirmou que a represa Koriba, entre a Rodésia e Zambia, já chegou a provovar terremotos de grau superior a seis na escala Richter, que vai até 10." Em reportagem datada de 03/abr/2012, aparece a observação anacrônica: "(o pior terremoto já registrado no mundo teve 8,9 graus)", quando desde pelo menos o fim da década de 1970, o sismo chileno de 1960 foi recalculado como de magnitude 9,5 (e.g. Kanamori 1977, 1978).

Uma possível origem da desinteligência pode ser por Richter (1958) ter tabulado uma conversão aproximada entre a escala Rossi-Forel (com 10 graus) e a escala de Mercalli (com 12 graus).

Uma confusão dos diabos (que faria a delícia do narrador da Sessão da Tarde) entre as várias escalas, seus significados, a existência ou não de um limite ou intervalo de variação... Pela relevância que os tremores de terra têm ao meio jornalístico, acho que caberia, se não um curso rápido, ao menos alguma orientação de modo que esse conhecimento entrasse na cultura geral que todo jornalista deve ter, em particular os que cobrem a área de notas internacionais e de ciências.

Mas enfim, esqueçam essa história de que a escala Richter vai "só" até 9. Não apenas não tem limite, como há registros de abalos maiores do que 9. E atenção para as diferenças com outras escalas.

Referências
Anônimo. 1945. Frequency of Earthquakes in California Nature, 156 (3960), 371-371 DOI: 10.1038/156371a0
Gutenberg, B., & Richter, C.F. 1944. Frequency of earthquakes in CaliforniaBulletin of the Seismological Society of America, 34: 185-188
Kanamori, H. 1977. The Energy Release in Great Earthquakes Journal of Geophysical Research, 82 (20), 2981-2987 DOI: 10.1029/JB082i020p02981
Kanamori, H. 1978. Quantification of Earthquakes. Nature, 271 (5644), 411-414 DOI: 10.1038/271411a0
Richter, C.F. 1935. An instrumental earthquake magnitude scaleBulletin of Seismological Society of America, 25 (1): 1-32
Richter, C. F. 1958. Elementary Seismology. W. H. Freeman and Co., 768 pp.

Jogo dos erros 4: A carta dos negacionistas climáticos

Mais uma vez, o blogue do Luis Nassif serve de plataforma para a divulgação das teses dos negacionistas climáticos.

Agora, Molion, Felício e outros estão juntos no mesmo documento. Analiso abaixo os principais pontos das alegações.

1) Não há evidências físicas da influência humana no clima global
Não é verdade como procurei demonstrar na série sobre aquecimento global, especialmente na parte 3. Uma das evidências da participação humana é a variação do teor de carbono-13 na atmosfera, como na figura 3 da resposta a Molion.

baseiam-se em projeções de modelos matemáticos, que constituem apenas simplificações limitadas do sistema climático
Toda previsão se baseia em simplificações limitadas - de sistemas climáticos, meteorológicos, astrofísicos,  biológicos, epidemiológicos, etc.

A questão é se as previsão são ou não sólidas. Por exemplo, as previsões meteorológicas têm uma taxa de acerto de mais de 90% para um prazo de alguns dias. E no caso de previsões climáticas? Elas têm tido um grande grau de acerto como mostro aqui.

Para que a ação humana no clima global ficasse demonstrada, seria preciso que, nos últimos dois séculos, estivessem ocorrendo níveis inusitadamente altos de temperaturas e níveis do mar e, principalmente, que as suas taxas de variação (gradientes) fossem superiores às verificadas anteriormente.
De modo algum isso seria necessário. Basta que haja uma "assinatura humana" (já citei o exemplo do C-13, mas há compostos que não são produzidos na natureza, como moléculas de CFCs).

O fato de, no passado, ter havido uma taxa maior do que a atual não indica que as atividades humanas são inocentes. No passado, houve extinções em massa cataclísmicas - algumas talvez por impacto com um bólido extraterrestre; não significa que a extinção atual não seja causada pela ação de seres humanos: destruição de hábitats, sobrecaça e sobrepesca, poluição, introdução de espécies invasoras...

Do mesmo modo como a extinção atual está acima da "taxa de fundo" - taxa normal de extinção não cataclísmica - atualmente verificamos uma variação de temperatura acima da taxa normal de variação, excetuando-se pontos de viradas climáticas como passagens por eras glaciais e interglaciais.

Além disso, nos últimos duzentos anos, notamos uma tendência constante de aumento de temperatura e não de simples oscilação em torno de uma média (com temperaturas que ora subam, ora desçam e fiquem, no geral, mais ou menos no mesmo lugar).

2) A hipótese “antropogênica” é um desserviço à ciência:
Não. Ela é fruto da investigação científica. Podemos traçar sua origem a pelo menos até Svante Arrhenius em 1896, quando sugeriu que a emissão de CO2 poderia levar a um aumento global da temperatura. A tese não foi de imediato aceita pela comunidade científica. Demorou, na verdade, mais de um século para que a maioria dos pesquisadores da área considerassem que a influência humana ocorria. Para um resumo da história, veja aqui.

A hipótese foi um grande serviço ao avanço da ciência na medida em que exigiu testes de hipótese para derrubá-la, mas os dados acumulados fizeram foi corroborá-la. Hipóteses alternativas também exigiram que testes fossem feitos, mas calhou que fossem derrubadas: como a de que o aumento atual na temperatura se devesse ao aumento da atividade solar (veja a figura 6 da segunda parte da série sobre o aquecimento global e a figura 2 da parte d da minha resposta a Felício).

Refinamentos de modelos foram levados a cabo. E novos estudos estão sendo feitos em função de se testar a hipótese: especialmente a questão das nuvens e aerossóis (veja uma lista aqui de fontes de incertezas que estão sendo investigadas). Ou seja, está a ocorrer o *oposto* do que os signatários da carta afirmam: os modelos, em função da hipótese da AGA e a discussão em torno dela, têm sido mais e mais *ampliados* para abranger o máximo possível da complexidade climática.

Um exemplo dos riscos dessa simplificação é a possibilidade real de que o período até a década de 2030 experimente um considerável resfriamento, em vez de aquecimento, devido ao efeito combinado de um período de baixa atividade solar e de uma fase de resfriamento do oceano Pacífico (Oscilação Decadal do Pacífico-ODP), em um cenário semelhante ao verificado entre 1947 e 1976.
Eventualmente pode ocorrer um resfriamento, mesmo sob a hipótese do AGA. A hipótese do AGA prevê uma tendência *geral* de aquecimento, não que o aquecimento seja constante o tempo todo. De fato, entre 1940 e 1950, houve um resfriamento - mas isso não anulou a tendência de aquecimento. Houve até um período mais longo de resfriamento entre 1880 e 1910, que também não anulou a tendência global ao aquecimento. Vide as figuras 1 e 2 da primeira parte da série sobre o aquecimento global.

A preparação para as possíveis consequências de longo prazo do aumento da temperatura não quer dizer que não sejam necessárias preparações para tendências de mais curto prazo.

3) O alarmismo climático é contraproducente:
Um ponto de forte concordância. O alarmismo é ruim, tanto quanto o negacionismo. Precisamos nos basear nos melhores dados disponíveis.

atitude correta necessária diante dos fenômenos climáticos, que deve ser orientada pelo bom senso e pelo conceito de resiliência, em lugar de submeter as sociedades a restrições tecnológicas e econômicas absolutamente desnecessárias.
Exato. E o bom senso (incluindo a eventual resiliência ambiental - que tem limites) e os dados nos sugerem que devemos nos preparar para um cenário de temperaturas médias mais altas.

Não devemos nem ser alarmistas, nem negacionistas.

4) A “descarbonização” da economia é desnecessária e economicamente deletéria:
Pelos dados atuais, discutidos nos links citados anteriormente, não é desnecessária. A parte econômica é ainda discutível: certamente seria mais deletério manter as coisas como estão hoje (haveria um ganho comparativo em relação ao cenário de deixar a temperatura subir muito mais - perdas de áreas habitáveis e economicamente exploráveis, perdas de safras, aumento de incidência de doenças...) e pode até ser economicamente positivo em relação ao cenário atual: o maior uso de energia menos poluentes como a solar ou a éolica tende a diminuir a emissão de particulados e gases tóxicos (CO, NOx, O3, etc.) e geradores de chuva ácida - e seus custos estão baixando, sendo competitivos em vários mercados -, demanda investimento em pesquisa, renovação de parte do parque tecnológico, mão de obra especializada: bem gerida, isso significa injeção de recursos na economia, produção mais eficiente, bem o contrário de deleção econômica.

Vale acrescentar que tais mercados têm se prestado a toda sorte de atividades fraudulentas, inclusive no Brasil, onde autoridades federais investigam contratos de carbono ilegais envolvendo tribos indígenas, na Amazônia, e a criação irregular de áreas de proteção ambiental para tais finalidades escusas, no estado de São Paulo.
Verdade, há fraudes em mercado de carbono e isso precisa ser bem regulado e fiscalizado. Do mesmo modo como há fraudes em diversas outras atividades, inclusive a da exploração petrolífera.

5) É preciso uma guinada para o futuro:
Mais um ponto de concordância. A indústria de petróleo, digamos, representa bem o século 19 e 20. Uma guinada espetacular seria uma economia baseada na fusão (e seria muito legal se Fleischmann & Pons não estivessem errados; mas na falta de fusão a frio, esperemos que a fusão a quente se torne economicamente viável). Para um futuro próximo, ainda neste século, esperemos um maior mix tecnológico, com a velha energia emissora de carbono sendo gradualmente substituída por fontes menos poluentes: biomassa (incluindo os biocombustíveis), solar, eólica, geotérmica, das marés...

sexta-feira, 18 de maio de 2012

Divagação científica: divulgando ciências cientificamente - 18

A questão do ponto de vista a partir do qual comunicar ao público um problema relacionado ao conhecimento científico tem sido estudada desde a década de 1970.

A seguir, minhas anotações do texto de Matthew C. Nisbet da American University.

--------------
Nisbet, M.C. 2009a. Framing science: a new paradigm in public engagement. In: Kahlor, L.A. & Stout, P.A.  (orgs.). Communicating Science: New Agendas in Communication (New Agendas in Communication Series). Chapter 2. Pp: 40-67.

Os enquadramentos (frames) são linhas narrativas interpretativas que colocam um conjunto de ideias encadeadas (train of thoughts) em movimento, comunicando por que uma questão deve ser um problema, o que e quem deve ser o responsável por isso e o que deve ser feito. (Nisbet 2009b.)

Os enquadramentos simplificam questões complexas dando mais peso a certas considerações e argumentos do que a outros.

Não são o mesmo que manipular falsificando ou adulterando elementos da questão.

São usados por:
a) público - como 'esquema interpretativo' para obter sentido e discutir uma questão;
b) jornalistas - para resumir eventos complexos em uma reportagem interessante e envolvente;
c) tomadores de decisão - para definir opções de políticas e alcançar uma decisão;
d) especialistas - para simplificar detalhes técnicos e torná-los persuasivos.

Tabela 1. Enquadramentos frequentemente usados em debates sobre política pública.
Enquadramento Questões relacionadas às ciências
Progresso social Melhoria da qualidade de vida ou solução de problemas, interpretação alternativa como harmonia com a natureza em vez de domínio, 'sustentabilidade'
Desenvolvimento econômico/competitividade Investimento econômico, benefícios ou riscos ao mercado, competitividade local, nacional, global
Moralidade/ética Certo ou errado; respeitar ou cruzar limites, limiares ou fronteiras
Incerteza científica/técnica Questão de entendimento de especialistas, invoca ou ataca consenso dos especialistas, apela para a autoridade da "ciência sólida", falseabilidade ou revisão dos pares
Caixa de Pandora/monstro de Frankenstein/ciência desenfreada Apelo à precaução frente a possíveis impactos e catástrofe, fora de controle, monstro de Frankenstein, fatalismo, i.e., ação é inútil, o caminho está escolhido, sem volta
Transparência pública (public accountability)/governança Pesquisa para o bem do público ou servindo a interesses privados, questão de posse, controle ou patentes de pesquisas, uso responsável ou abuso das ciências na tomada de decisão, 'politização'
Caminho do meio/via alternativa Encontro de uma possível posição de compromisso, terceira via entre visões ou opções conflitantes/polarizadas
Conflito/estratégia Jogo das elites, quem está à frente ou atrás no debate, guerra de personalidades ou grupos (normalmente interpretação com motivação jornalística)

domingo, 13 de maio de 2012

Padecendo no paraíso 2

ResearchBlogging.orgA matrifagia é o consumo da fêmea pela própria prole - uma espécie de complexo de Édipo elevado a um googol. É um comportamento descrito em artrópodos: algumas espécies de aranhas, de pseudoescorpiões e de tesourinhas.

Na aranha (sub-)social, Amaurobius ferox, Kim e cols. 2000 notaram que os filhotes que praticavam a matrifagia atingiam, em média, uma massa corporal maior do que a da prole impedida de realizar o comportamento, mesmo com presas em quantidade suficiente. Indivíduos matrífagos, além disso, apresentavam um desenvolvimento mais acelerado, com mudas mais precoces; um período social mais longo; maior sobrevivência pós-dispersão e maior sucesso na captura de presas grandes. Ok, para os filhotes parece ser um bom negócio. Mas, e Maria, como fica?

Os pesquisadores separaram algumas fêmeas logo antes da ocorrência da matrifagia. Elas foram capazes de produzir uma nova ninhada, aumentando inicialmente seu sucesso reprodutivo em 33%. Porém, no fim das contas, comparando-se a sobrevivência dos filhotes, as fêmeas que foram devoradas por suas crias tiveram um sucesso reprodutivo maior do que as que escaparam da morte e puderam ter uma segunda ninhada.

A mamãe A. ferox, naturalmente antes de ser devorada viva, provê outros cuidados parentais às suas crias. Ela fornece ovos tróficos que, consumidos pelos filhotes, fornecem nutrientes extras. (Kim & Roland 2000.)

Aqui um vídeo feito pela BBC do comportamento canibal dos filhotes de A. ferox.

Certamente tal sistema é vantajoso do ponto de vista seletivo apenas em casos particulares; do contrário, seria de se esperar uma distribuição mais ampla da matrifagia.

Referências
Kim, K., Roland, C., & Horel, A. (2000). Functional Value of Matriphagy in the Spider Amaurobius ferox Ethology, 106 (8), 729-742 DOI: 10.1046/j.1439-0310.2000.00585.x
Kim K.W. & Roland C. (2000). Trophic egg laying in the spider, Amaurobius ferox: mother-offspring interactions and functional value. Behavioural processes, 50 (1), 31-42 PMID: 10925034

sexta-feira, 11 de maio de 2012

Hetero sapiens

Lineu (1707-1778) nos denominou Homo sapiens destacando a qualidade que considerava mais distintiva: o intelecto. Nisso se firmava em uma tradição antiga que remonta a pelo menos Porfírio (234?–305?) que, em sua árvore, colocava o ser humano como animal racional. Conquanto hoje se discuta não apenas se o ser humano é mesmo, afinal, racional, como também até que ponto outros organismos não apresentam um grau razoável de inteligência.

Mas o ser humano, destacamo-nos também sob outro aspecto: a nossa variabilidade comportamental e  ideológica (não apenas dentro da população, como em relação ao mesmo indivíduo).

Teóricos têm destacado diversos aspectos da natureza humana (algumas contraditórias entre si):
  • Homo biologicus - cunhado por Charles Elworthy (1993), descreve a necessidade de se entender os aspectos biológicos do ser humano (incluindo sua evolução) para se compreender sua sociologia (incluindo as atividades econômicas).
  • Homo oeconomicus - um agente estritamente racional e egoísta; o modelo preferido dos economistas clássicos e neoclássicos (dá até o nome de uma revista sobre o tema). Persky (1995) nota que o primeiro uso conhecido do termo data de Pareto (1906), mas pode ser mais antigo.
  • Homo faber - conceito filosófico criado por Henri Bergson (1911), do ser humano como fabricador de ferramentas. (Há que se notar que alguns primatas não-humanos também são capazes de criar ferramentas.)
  • Homo ludens - o jogo e brincadeira como um elemento gerador da cultura, notando-se que a brincadeira, estando presente em outros animais, antecede a humanidade. Termo inventado por Johan Huizinga (1938).
  • Homo reciprocans - surge como contestação ao H. economicus, sua motivação é a cooperação e o desejo de melhorar seu ambiente. Cunhado por Fehr and Gächter (1998), segundo Abbink & Herrmann (2009).

(Há uma lista bem mais extensa aqui, embora muitos dos termos pareçam não se aplicar à humanidade em sua totalidade.)

E você, que aspecto da natureza humana destacaria? E qual destacaria em você mesmo(a)?

------------
Já deu sua resposta ao enigma? Valendo um exemplar grátis de "O que é vida?" de Lynn Margulis e Dorion Sagan.

segunda-feira, 7 de maio de 2012

Jogo dos erros 3d

Segue a parte final da série de postagens analisando a entrevista do Prof. Ricardo Felício da FFLCH/USP ao Programa do Jô. (Reclamaram do uso do cinza para os trechos, mudo para verde.)

21'11: "Não, isso [de avanço do mar sobre a orla] é um fenômeno que já é estudado pela morfologi... geomorfologia, já há muito tempo, e é chamado, então, de agradação e degradação. Então a gente fala assim, a gente usa a palavra degração achando, assim, ah, estamos destruindo o planeta. Não, o próprio planeta se mexe, ele vai mudando suas formas. Então ele também, o mar também faz seus processos de agradação, formar praias, e degradação, ele também desfaz as praias. Isso é um processo natural também."
Há sim processos naturais de formação e erosão de praias e das paisagens em geral. O que não quer dizer que a elevação do nível dos oceanos não estejam sumindo com terras litorâneas. Zhang et al. (2004) concluem que há já avanço da erosão costeira por conta do efeito indireto do aquecimento global, embora Stive (2004) questione a metodologia usada: a aplicação da regra de Bruun (uma equação que relaciona as características do litoral - como sua inclinação - e a elevação do nível do mar com o total de área inundada: detalhes podem ser vistos em Ranasinghe & Stive 2008). Há também um efeito humano causado pela ocupação das áreas litorâneas de modo desordenado, levando à destruição da flora local, potencializando o efeito erosivo das marés e mesmo de fenômenos atmosféricos como tornados e furações (vide Feagin et al. 2010). Para um diagnóstico da situação do litoral brasileiro, veja a série de estudos do Ministério do Meio Ambiente "Erosão e Progradação do Litoral Brasileiro"***

21'46: "Não [a água do aterro não vaza para outro lugar]. Não, a área é mínima não tem como [o mar se expandir para algum lugar por causa do aterro]. Não [não tem influência nenhuma]."
Em termos de deslocamento de massa de água, realmente os aterros têm um volume mínimo comparando-se com o volume dos oceanos. Outros efeitos se fazem sentir localmente, no entanto. Especialmente se mal projetados: impactos sobre a biodiversidade, alterações nos padrões de correntes litorâneas locais e até enchentes (Choudhury 2004).

23'47: "Não, primeiro que não sou nem contra o Código Florestal, não tem... não mexo nada com isso e segundo porque também não tenho nada a ver com a bancada ruralista. Muito menos. Então não sei daonde ele tirou essas informações. São totalmente furadas. Não, isso daí [a ideia do Juca de Oliveira de que a remoção do petróleo do pré-sal com o bombeamento da água do mar faria com que o calor do centro da Terra esquentasse a água, implodisse a região e provasse tsunamis], eu desconheço pra poder falar alguma coisa, eu teria que consultar um... Não [não é possível], não. A influência, 99% da energia que está na superfície da Terra vem Sol. 99%, 99,99%, na verdade. A geotérmica é insignificante em frente ao estrato geográfico, que é a casquinha do planeta. Não, mesmo assim, continua não sendo [influente, mesmo em escala local]. O Sol, por exemplo, todo mundo fala assim: 'Ah, o Sol é uma constante.' Ah, o Galileu quase foi pra fogueira, né? Daí começou a achar manchas no Sol. 'É. Acho que o Sol não é uma constante.' Não é. O Sol tem os seus ciclos, né?, de alteração. O principal é o de 11 anos, então, 11 anos ele vai aumentando sua atividade, e 11, é... diminuindo. Então, mais ou menos, 4 subindo, 7 descendo. E também tem outros ciclos de 90 anos, outros ciclos de 200. Então, agora, por exemplo, estamos entrando num período mais calmo do Sol que vai até 2046. Então se vocês estão pensando que vai ter aquecimento global.. Não, na verdade vai ter é um resfriamento. Que já está na verdade acontecendo desde 1998. Já [está ocorrendo o resfriamento]. As temperaturas na verdade já estão diminuindo."
Aparentemente o entrevistado não compreendeu a proposição do ator Juca de Oliveira. De fato, a geotérmica é um input insignificante no geral. Mas consideremos os terremotos. A energia liberada anualmente pelos abalos sísmicos é estimada em algo como 10^17 a 10^18 J. A energia solar que aporta à Terra anualmente é por volta de 5.10^24 J - uns 30% ésão refletidos (pelas nuvens, atmosfera e solo), então cerca de 10^24 J/ano estão disponíveis para a dinâmica da superfície. Isto é, a energia sísmica equivale a 10^-7 ou 0,00001% da energia solar. E não é correto concluir com base nisso que terremotos não provocam tsunami.
Mas a tese de Oliveira não se sustenta. Se a água é melhor *condutora*, ela simplesmente faria a energia se *dissipar* mais rapidamente, em vez de se acumular perigosamente. Além disso, a temperatura dos depósitos de petróleo de pré-sal sãoé de cerca de 60-70°C. Bem longe de qualquer potencial explosivo. A pressão local é grande, mas há um gradiente de pressão ao longo da coluna de rocha e de água
O Sol, de fato, apresenta ciclos (Figura 1)*. E, de fato, estamos para entrar na fase de diminuição da atividade solar (completando o chamado ciclo 24). O ciclo 24 é predito para ser o ciclo de menor atividade geral nos últimos 100 anos, o que é longe de representar um ciclo de resfriamento - mas até 2020, não até 2046 (embora os ciclos 25 e 26 também possam ser reduzidos - caso o ciclo de Gleissberger de 87-8 anos seja real, vide Peristykh & Damon 2003)**. Entre os anos 2000 e 2010 passamos pela fase de diminuição da atividade solar no ciclo 23, mesmo assim não se observou um resfriamento. Pode significar uma temperatura anual média menor do que a dos últimos tempos, mas ainda dentro da tendência geral de aumento - veja as Figuras 1 e 2 da primeira parte da série sobre o aquecimento global: houve vários períodos em que a temperatura média caiu, mas a tendência geral de subida da temperatura se manteve. Os gráficos das mesmas figuras desmentem que a temperatura esteja caindo desde 1998. A Figura 2 apresenta um gráfico de correlação entre a concentração atmosférica de CO2, atividade solar e temperatura da superfície da Terra - repare como a concentração de CO2 acompanha melhor a temperatura do que o número observado de manchas solares.*
Figura 1. Variação da atividade solar (número de manchas solares mensais) no período 1749-2011.Fonte: MSFC/Nasa. Média do intervalo entre os picos: 10,92±2,08 anos.*

Figura 2. Correlação entre temperatura da superfície da Terra, concentração atmosférica de CO2 e atividade solar (normalizado entre 0 e 1). Fontes: temperatura - GISS/Nasa, atividade solar - MSFC/Nasa e CO2 - GISS/Nasa.*

25'16: "Total, [a influência do Sol no nosso clima] é 100%. Aí depois você tem Lua, um pouco de Júpiter também, e Saturno, mexendo nos campos gravitacionais. Mas o resto vai ser o Sol, no primeiro escalão, o segundo escalão são os vulcões e aí o pessoal do terceiro escalão são os oceanos. É, os vulcões. Não [não tem a ver com a teoria do Juca de Oliveira], os vulcões na verdade tem o problema ao contrário. A resposta deles é negativa, porque eles jogam cinzas vulcânicas na estratosfera, que seria a segunda principal camada da atmosfera, e aí não deixa a energia solar ir para a superfície. Então quando tem atividade vulcânica, em geral, assim intensa, você já o próximo verão, inverno mais frios. Krakatoa foi um grande problema, né? O ano seguinte não teve verão. É, depois que ele entrou em atividade, o ano seguinte não teve verão. De tanta cinza vulcânica que ele jogou na estratosfera. Mas não tem problema [o fato de não termos grandes vulcões no Brasil]. Em qualquer lugar que eles estiverem... O chileno, agora, o ano passado. Acho [graça], é bonito. O chileno agora no final do ano entrou em erupção... bom, afetou até aqui, os estados do Sul, né?"
Bom notar que, embora o Sol, a Lua e os planetas tenham efeito gravitacional sobre a Terra, a questão climática não está diretamente ligada a esse efeito, mas sim a eventuais mudanças na orientação do eixo de rotação - que alteram a distribuição de luz pelo globo - à na excentricidade da órbita - que alteram as distâncias em relação ao Sol (componentes do ciclo de Milankovitchi).
É verdade que vulcões, por meio de cinzas e particulados, têm um efeito de resfriamento. Mas as cinzas acabam se assentando e o efeito passa. Por outro lado, atividades vulcânicas emitem CO2.
Como observado na parte 2 da série, o Sol, no entanto, não parece explicar o aquecimento (no máximo, deve contribuir com 30% da variação) e, como observado na parte 3, o vulcanismo não parece contribuir com o aumento de CO2 - pela assinatura do isótopo de C13.
Então, embora sem dúvida o Sol e os vulcões sejam importantes para o clima na Terra, não devem ser eles os responsáveis pela *alteração* atual.

26'56: "É, o El Niño é um fenômeno bem interessante, totalmente desconhecido. Muito complicado, é um fenômeno de alta frequência. Ele às vezes ele fica quatro, cinco meses, desaparece mais uns quinze. Polarizado, né?, tem o El Niño, La Niña, às vezes ele fica meio intermediário, não joga nem para um lado nem para o outro. Tem La Niña também, é... e eles também estão atrelados a outro fenômeno chamado Oscilação Decadal do Pacífico. Esse é o mais longo, que foi descoberto sem querer com a pesca no Pacífico, né? Que os peixes desapareciam durante uma época e depois era uma abundância total de peixes. Aí, viam que estava ligado com a temperatura da superfície da água do mar. Então o Pacífico, ele tem uma polaridade de estar mais frio ou mais quente, muito próxima à oscilação do Sol. E tinha que ser né? A gente sempre esquece, o Pacífico é um terço do tamanho da Terra. Um terço do tamanho da Terra é o Pacífico."
O El Niño/La Niña são, de fato, importantes fenômenos a impactarem o clima na Terra, estando ligados a modificações mais ou menos periódicas dos índices de pluviosidade (aumentando em um lugar, diminuindo em outro); assim como a Oscilação Decadal do Pacífico, embora a ligação entre os fenômenos seja ainda alvo de debates (vide Mantua & Hare 2002).
Só uma nota de certo estranhamento. Bem acertadamente o professor chama a atenção para a extensão do Pacífico e que isso implica na influência do clima. Mas em uma fala anterior diz: "Coitadinhos dos continentes, né?, aquelas coisinhas de nada". O Pacífico tem uma área de cerca de 165,2 milhões de km2; os continentes totalizam 148,6 milhões de km2.

*Upideite(08/mai/2012): Adido a esta data.
**Upideite(11/mai/2012): A depender da metodologia, no entanto, o ciclo 24 pode não ser particularmente baixo. Modelos de Dínamo de Fluxo de Transporte com dominância do fluxo meridional prevê uma amplitude de 165±15 manchas (entre 30 e 50% *maior* do que o ciclo 23), vide Dikpati et al. (2006). O ciclo atual servirá de teste entre diversos modelos de predição da duração e intensidade dos ciclos solares.
***Upideite(14/mai/2012): Adido a esta data.

domingo, 6 de maio de 2012

Como estão as previsões sobre a temperatura?

Faço uma pequena pausa em minha análise da entrevista de Ricardo Felício, da USP, ao Programa do Jô. Mas continuo ainda no tema do aquecimento global.

O primeiro relatório do IPCC já tem 20 anos, atualmente estamos com o quinto relatório em andamento: os trabalhos serão liberados a partir do ano que vem.

Já é possível fazer um balanço das previsões anteriores sobre a evolução da temperatura média da superfície da Terra e comparar com os dados reais obtidos desde então.

A Figura 1 faz a comparação para as previsões dos três primeiros relatórios do IPCC - não incluí o 4o relatório, por ser relativamente recente: de 2007, haveria apenas uma meia dúzia de pontos para comparação efetiva.

Figura 1. Evolução da temperatura média global versus evolução predita nos modelos usados pelo IPCC. Para os dois primeiros painéis, em laranja, são os pontos da média do ano, em verde, os pontos da média de 5 anos; no terceiro painel, por causa do contraste, a média do ano está em amarelo e a média de 5 anos, em azul claro. Fonte: GISS/Nasa.

Como não tenho acesso aos valores numéricos ponto a ponto das previsões dos modelos usados pelo IPCC, plotei os valores reais calculados pelo GISS/Nasa - na verdade, a diferença ano a ano em relação ao valor base de 1990 - sobre as figuras dos gráficos das previsões*. Assim também o exame será só visual, não sendo possível um teste estatístico.

Os dados não acompanham muito bem as previsões do 1o IPCC - que ainda só considera dois cenários: um em que nada muda em termos de emissão e outro em que as emissões são reduzidas à metade. É possível se ver que os modelos ainda estavam razoavelmente pouco elaborados.

A partir do 2o IPCC, há mais cenários, incluindo aumento no ritmo de emissão, mas que não divergem muito de início. Os dados reais acompanham bem, especialmente a média de 5 anos, que elimina a grande variação interanual.

No 3o IPCC, os dados reais parecem estar bem dentro das projeções, que agora incorporam as regiões de incertezas. Mais um vez, os dados das médias de 5 anos se encaixam melhor.

E podemos acompanhar a melhora do poder preditivo dos modelos ao longo de pouco mais de uma década que separa o 1o relatório do 3o, mostrando o refinamento das simulações à medida em que mais conhecimento é incorporado. Ainda temos bastante incertezas a respeito de cenários mais longos de 20, 30 anos ou 100 anos, mas, pelos dados disponíveis e nosso nível de conhecimento atual, há uma tendência de aumento - bem como as alterações climáticas associadas. E, por mais que não haja certezas, é bom se precaver. Especialmente com as previsões de modelos que têm se mostrado robustos.

------------
O Concurso Cultural GR valendo um exemplar gratuito de "O que é vida?" de Lynn Margulis e Dorion Sagan continua. Tente decifrar o enigma ou arrisque um palpite.

*Upideite(07/mai/2012): adido a esta data.

*Upideite(08/mai/2012): Claudio Angelo, no Entre Colchetes, apresenta outros gráficos, entre os quais um que compara o ritmo de perda do gelo marinho do Ártico e o previsto no IPCC (a postagem comenta, e rebate, a entrevista de James Lovelock em que diz que não houve aumento de temperatura em anos recentes).
Carlos Orsi, também comentando sobre as declarações de Lovelock, apresenta outro gráfico de comparação entre o previsto e o obsevado - de temperatura, de James Hansen de 1981.

Upideite(10/dez/2012): Estudo recém-publicado na Nature Climate Change analisa as previsões feitas no 1o IPCC - os resultados batem de modo geral. E os gases estufa parecem estar dominando sobre outras forçantes radioativas. via @carlosom71.

Jogo dos erros 3c


Continuando os esclarecimentos sobre as afirmações (ou, antes, negações) do Ricardo Augusto Felício, da Geografia da FFLCH/USP em entrevista ao Programa do Jô, seguem mais trechos e as observações.

15'40: "Tem que tomar cuidado com isso, porque quando eu falo isso, não significa que estou autorizando a destruir a floresta. Não, mas a gente tem que tomar cuidado porque a... o aporte do ambientalismo é esse contra as pessoas que falam, é... negam a hipótese do aquecimento global, né? Então elas misturam tudo dentro de um saco de gatos, então: 'Ah, tá vendo? Esse cara está autorizando a gente a destruir a floresta.'"
Sim, é preciso tomar cuidado. Seria interessante falar da importância da preservação das florestas além da questão climática, então. Comentei sobre isso - bem como sobre a complexidade do papel das florestas no aquecimento global - na postagem anterior. E, realmente, há uma parte desinformada no movimento ambientalista.

16'10: "Não, não é possível [destruir a Amazônia]. São 6.000 km desse novo aquífero que descobriram em baixo da Amazônia. Ganha do aquífero Guarani. Recentemente descoberto. 6.000 km."
O fato de haver um grande aquífero sob a floresta amazônica não a torna indestrutível. O aquífero - ou rio (mais sobre a polêmica de sua natureza no Ciência Hoje) - Hamza está à4 km abaixo da superfície, bastante longe do sistema radicular das plantas da Amazônia - que tendem a ser bastante superficialis.

16'43: "É, na verdade é assim, é, a gente tem que entender que quem manda no planeta são os oceanos. Por acaso, existem os continentes. São 3/4 da superfície do planeta com água. Então, a maior parte da troca de massa e energia da... com a atmosfera é feita com os oceanos. Então, de vez em quando eles ficam com pena: 'Coitadinhos dos continentes, né?, aquelas coisinhas de nada, joga um pouquinho de água pra eles.' Esse jogar um pouquinho de água pra eles já faz todo o desastre que a gente imagina. Bom, a principal entrada de água para os continentes vem na parte tropical, que são os ventos alísios. Todo mundo já ouviu falar, estudou na escola um monte de vezes isso daí. O próprio Köppen, que é uma das primeiras pessoas que estudou a climatologia, lá no século 18, 19, né?, começando esses estudos, ele tipo falou assim: 'como é que vou estudar o clima, que a atmosfera é uma coisa que é invisível, altamente dinâmica e não dá pra fazer nada.' Bem, ele conseguiu verificar que as.. a vegetação respondia ao clima. Então ele viu assim: 'Olha, gozado, né?, nessa parte toda do planeta, salvo algumas exceções regionais, você tem florestas extremamente virtuosas, enor.. imensas, e é justamente onde chove bastante, onde você tem as principais células de trovoadas, né? Os relâmpagos é, fixam o nitrogênio na chuva e portanto jogam isso na superfície.' Então tem toda uma simbiose entre os fenômenos da atmosfera, então as florestas, o nome técnico da floresta em inglês, por exemplo, se chama rainforest, então 'florestas de chuva', é, a floresta está lá porque chove, não chove porque tem florestas, entenderam? Então quer dizer que se você cortar... vamos supor que você,né?, vamos fazer isso um cenário hipotético. Já que eles adoram fazer cenário, vamos também. Vamos supor que você tira toda a Amazônia de lá, tira tudo, tira assim, tudo, tudo... 20 anos depois tá tudo de novo nascendo, tudo de novo nascendo, tudo de novo nascendo... 20 anos. Que não é nada na história do planeta."
Os oceanos realmente têm papel de destaque na regulação do clima. O que não quer dizer que apenas eles contem. Sem continentes, seria virtualmente impossível a formação de calotas polares, p.e. Os continentes também alteram a circulação de correntes marinhas - e, portanto, o padrão de distribuição de calor. A alteração de albedo da superfície continental - por exemplo, quando há avanço de geleiras, ou mudança de uso do solo - também influencia em muito o clima.
Wladimir Köppen, na verdade, é do século 19 para 20.
O papel da floresta amazônica na formação da chuva zenital é bem conhecido. A quantidade de água evaporada pela superfície foliar também. Vide, p.e., Williams et al. 1998.
Se a floresta tropical em pé não tivesse nenhum efeito, o padrão de precipitação na bacia amazônica não deveria ser afetado ao longo do tempo à medida em que o desmatamento progride. Mas, p.e., Marengo (2004) detectou uma tendência de queda no índice pluviométrico na região desde 1929. Em um período mais curto, entre 1976 e 1996, detectou-se uma diminuição da circulação atmosférica na região - havendo queda do fluxo de umidade atmosférica para dentro e para fora da região de lá. Isso deveria causar uma diminuição da precipitação local, caso as árvores não importassem. Mas detectou-se um aumento da evapotranspiração foliar e, ao mesmo tempo, o padrão de chuva pouco se alterou (Costa & Foley 1999). O que, claro, não significa que a circulação atmosférica não tenha importância - ela afeta, por exemplo, quando ocorre o El Niño, a chuva na Amazônia diminui. (Fato que é mais um motivo de preocupação com o aumento da temperatura da superfície dos oceanos com o aquecimento global.)
É bem possível ainda assim que mesmo que a floresta fosse derrubada completamente, em 20 anos *começasse* a se formar uma nova floresta. Mas provavelmente levaria alguns séculos a milênios para se recompor - e em toda sua biodiversidade, alguns milênios (há estudos que indicam que áreas desmatadas há cerca de 500 anos e depois abandonadas, embora tenham se reconstituído como floresta, não recuperaramou sua diversidade original de espécies). E, até que a floresta se recuperasse, o padrão local de chuva seria alterado, bem como um padrão de maior alcance da circulação atmosférica.

19'13: "Eles vão discutir [na Rio+20] como manter as suas colônias na coleira. Olha, vamos lá, 1492, chegam aqui e nos convenceram que nós precisávamos de espelhinhos pra sobreviver. 1992, quinhentos anos exatamente eles vêm com a história da Rio, né? Todo esse negócio, o mundo está acabando, etc. e tal. Tem os precedentes disso, 1980, então começou com a historinha da camada de ozônio. 1987 se forma o primeiro painel intergovernamental, chamado IOTP, para a camada de ozônio, 1987. 1988, o IPCC, que é o painel das mudanças climáticas. 1989, cai o Muro de Berlim. Aí você fala assim: 'O que tem a ver?' Tem tudo a ver. É o sistema capitalista se, né?, expandindo. E ao mesmo tempo quando você tem isso, nossa, metade do efetivo dos cientistas do mundo trabalhavam para a Guerra Fria. Acabou a mamata. Se você for pegar o histórico desses cientistas que trabalham com o aquecimento global hoje são os mesmos que trabalhavam para todos os desastres atômicos e nucleares, etc e tal. Então o que esses cientistas sabiam fazer? Cenários em computadores. 'Programo e faço cenários. Olha se jogar uma bomba nuclear aqui faz isso, não sei o quê.' Eles só trocaram o negócio chamado guerra termonuclear global por aquecimento global."
Um levantamento parcial (75 casos) do ano de doutoramento de cientistas do IPCC, mostra que, embora, de fato, uma grande maioria tenha iniciado sua vida acadêmica durante a Guerra Fria, 17% doutoraram-se depois de 1989 (Figura 1).
Figura 1. Distribuição de tempo de doutoramento de painelistas do IPCC, em referência a 1989. Azul escuro: antes de 1989; azul claro, em 1989; amarelo: depois de 1989. Fonte: Wikipédia, usuário Gergyl.

O que será discutido e como estão as tratativas para o Rio+20 (com diversos imbróglios econômicos e diplomáticos) podem ser acompanhados no excelente blogue do jornalista Claudio Angelo, Entre Colchetes.
Embora muitos acordos internacionais do ambiente ocorram depois de 1972, quando se dá a Conferência das Nações Unidas de Stockholm  Estocolmo sobre o Ambiente Humano (como nota, mais uma vez a teoria conspiracionista não cola - seria engraçado supor que tentaram colocar coleira na Suécia; a Rio92 foi na verdade um StockholmEstocolmo+20), as convenções ambientais têm uma história mais antiga: o Tratado sobre Aves Migratórias é de 1918, a Convenção sobre Caças à Baleia, de 1946, a Convenção sobre Poluição por Petróleo, de 1954;

De qualquer maneira, haver trabalhado durante a Guerra Fria não traz problema algum. A questão é de examinar os trabalhos desses cientistas.

Upideite(06/mai/2012): O teste de D'Agostino-Pearson para a normalidade dos dados sobre as datas de doutoramento não rejeita H0 (DP = 0,528; p = 0,767), então podemos assumir que o tempo de doutorado tem distribuição normal. A média é de -10,17 anos a partir de 1989, ou seja, a média do ano de doutoramento é 1978,83, com desvio padrão de 9,44 anos. Se assumirmos uma idade média de defesa do doutorado de 30 anos, em 2007, a idade média dos painelistas seria algo como 58 anos. Pode parecer uma idade avançada, mas se considerando que é um painel de especialistas, haveriam de chamar os com mais experiência. E o fato de os dados distribuírem-se normalmente indica que não parece ter havido barreira de idade.

Upiteide(08/mai/2012): Jogo dos erros 3d, parte final.

sábado, 5 de maio de 2012

Jogo dos erros 3b*

Continuando os comentários e, principalmente, as contestações às declarações do Prof. Dr. Felício do Departamento de Geografia da FFLCH/USP, mais trechos abaixo:


10'13: "Não, mas o melhor é o preço que vai ser o substituto, que as empresas agora falaram que vão garantir que não vai mais dar nenhum problema. Ah, hã, né? US$ 128/kg. E também não vão funcionar nos outros equipamentos. Se vocês perceberem agora a... mas não é só trocar o gasinho do refrigerante. Parques industriais inteiros têm que ser trocados, porque existem os sistemas de refrigeração centrais, caldeiras e tudo o mais. Se vocês perceberem agora, todos os produtos estão passando a butano de novo. Os CFCs, quando eles vieram no final dos anos 1940, 1950, eles vieram justamente para resolver o problema de explosões em fábricas, porque é um gás totalmente inerte, não tem nenhum problema com ele. Então, hoje nós estamos voltando para trás, no começo de século 20 de novo, por uma mentira que é que esse gasinho destrói o... a camada de ozônio. Que eles, hã... a hipótese, que é uma hipótese, de novo, a antrópica, que nunca foi provada, é que os CFCs, os gases organofluorclorados, conseguem destruir a camada de ozônio. O butano não. Ele fica lá. Por enquanto né? Até alguém arrumar um problema com ele."
Vamos ver, estão substituindo por butano... mas butano não dá royalties de patente. Como fica a tese de que estão pressionando a troca de HCFCs por causa do vencimento da patente? E mais, trocar por butano é ruim porque volta à situação da década de 1940, ok. Mas usar o CFC que volta à situação da década de 1950 é bom por quê? Um dos grandes problemas das teses conspiracionistas são isso; em um exame, mesmo superficial, aparecem uma série de contradições. É preciso torturar os fatos para que as coisas se encaixem; ignorar o que contradiz. (E mais uma vez aquela concepção estranha de hipótese científica.)
A ação do CFC foi discutida na postagem anterior: não apenas em laboratório temos a catálise da quebra do ozônio em oxigênio por moléculas de CFCs, como após o banimento das moléculas e subsequente diminuição de sua concentração atmosférica, a concentração de ozônio sobre a Antártica começa a parar de cair e inicia um aumento.

Jô Soares 11'31: "Tem uma coisa que me chama muito a  atenção, Ricardo, é que sempre que você vê o anúncio de um fenômeno astronômico ou a queda de um meteoro ou um fenômeno geográfico e físico, sempre é assim: a temperatura chegou a não sei quantos graus que não acontecia desde 1920, a nevasca que aconteceu esse ano não se via desde 1887. Quer dizer que sempre anteriormente teve alguma coisa pior? Pois é, então por que essa coisa catastrófica, não é?, de achar que a próxima será a pior, se nunca acontece isso?"
Minha intenção aqui não é me focar em Jô Soares. Respeito muito seu trabalho e sou um sincero admirador. Mas este trecho sinto-me compelido a reproduzir e rebater. Claro, há um componente jocoso aí, mas é uma preparação para mais um "levantamento de bola" para o entrevistado "cortar".
Fenômenos astronômicos são chamados à baila para mudanças de ciclo longo nos padrões climáticos da Terra, em particular, os ciclos de Milankovitch para a glaciação. O fenômeno astronômico cuja ligação é hipotetizada com o atual aquecimento global são os ciclos de atividades solares - mas isso exatamente pelos que *negam* a influência antrópica (e reconhecem que a temperatura da superfície da Terra está em elevação) - na segunda parte da série de postagens do GR sobre o aquecimento global, no entanto, mostro como a atividade solar não consegue explicar o aumento da temperatura na Terra.
Não há muitos estudos sobre eventual ligação de quedas de meteoros e aquecimento global. Mas se houvesse vínculo, deveríamos estar a experimentar um período de maior chegada de meteoros, não há nenhum indício de que seja o caso. Há pelo menos um estudo (p. 26, German 2008) que investiga a possibilidade do efeito do meteoro ou cometa a atingir Tunguska em 1908, mas um efeito duradouro é descartado (a dessincronia entre as temperaturas dos hemisférios norte e sul é detectada apenas nos 10 anos seguintes à queda).
Mas, normalmente, quando dizem que é a maior (ou menor) medição desde o ano X, não quer dizer que é porque se sabe que antes do ano X houve medições maiores (ou menores). É simplesmente porque as medições registradas começaram no ano X. A meteorologia como ciência começa a tomar forma no séc. 17  com o desenvolvimento de instrumentos adequados e as medições meteorológicas começam a ser registradas de modo sistemático e contínuo somente no séc. 19.
De todo modo, mais do que o registro de extremos, o importante na questão do aquecimento global é o padrão. Não importa se eventualmente houve um ponto isolado no passado com temperatura mais elevada, importa se a tendência é de aquecimento ou não. Se a tendência não for de aumento, registros de recorde de temperatura alta são ou cada vez mais esparsos - se a temperatura estiver caindo ao longo do tempo - ou estão espalhados no tempo; se a tendência for de aumento, então é mais provável que o ano seguinte apresente um novo recorde. Esta última situação é mais ou menos o que temos ouvido a respeito da temperatura. É tão claro pelos dados (veja a primeira parte da série no GR sobre o aquecimento global) que muitos negacionistas aceitam que a temperatura superficial da Terra está mesmo a aumentar, mas procuram uma causa não-humana.

11'20: "Não. Registros paleoclimáticos mostram coisas muito piores, tipo o nível do mar subir 50 m em 100 anos, a temperatura subir em 50 anos 8 graus. E pessoal tá falando que vai subir meio grau em 100? Ih, isso é piada, isso. Isso é uma piada."
Não é uma piada. Na verdade meio grau é o quanto já subiu, as projeções são em torno de 2oC em 100 anos (vide 4o IPCC - o melhor cenário fica entre 1,1–2,9°C; o pior cenário, 2,4–6,4°C). De todo modo, o fato de ter havido variação maior no passado, não significa que uma variação menor agora não seja um problema. É o mesmo que alguém, distante 6 km do abismo, caminhar 6.000 m em direção ao precipício e concluir: "Bem, já andei tanto, um passo a mais não tem problema."

13'11: "É, isso daí [mudança do padrão climático na cidade de São Paulo, antes conhecida como 'terra da garoa']" é o efeito do clima no local, né? Então, né, isso não é um efeito global. É... o caso da garoa, por exemplo, nós tivemos um trabalho científico feito agora em 2009, 2010, mostrando que nos últimos três anos ela voltou com a mesma intensidade dos anos 1930, 1940, então, na verdade, também a garoa é um fenômeno cíclico. O que carece hoje em dia muito é a observação, as pessoas não.. nós temos pouca observação realmente dos fenômenos climáticos dentro da cidade. A gente até fala que é o clima citadino, na verdade, né? Hã... em geral, nós temos também pouca observação, a partir dos anos 1990, fecharam-se estações meteorológicas no mundo inteiro. O próprio presidente Collor de Mello fechou diversas estações meteorológicas aqui no Brasil também. Então, a gente carece bastante de informação meteorológica in loco. Satélites medem, mas sempre tem assim um problema de método, enfim, não é uma coisa tão fácil."
É verdade que a questão da garoa de São Paulo é algo local, não global - embora possa haver influência do padrão global. Não encontrei pelo Google Scholar o trabalho mencionado sobre garoas, nem no lattes do pesquisador (atualizado em 26/jun/2012).**

14'15: "Não existe [influência do desmatamento no clima global]. Não, infelizmente não. [Existe] mais ou menos [influência no clima local]. É, uma coisa que as pessoas também não sabem... Não, tem que tomar cuidado... Não, nunca foi [a Amazônia o pulmão do mundo]. Nunca foi, essa teoria já foi derrubada nos anos 1980, já. Não, são os oceanos."
O efeito do desmatamento é bem complexo. De um lado, ele altera o albedo (o quanto um objeto reflete da luz que incide sobre ele) da superfície - em latitudes mais altas, a perda da cobertura vegetal corresponde a um aumento do albedo (refletindo mais luz), diminuindo o aquecimento. Em latitudes mais baixas, a cobertura vegetal promove o aumento da umidade atmosférica e maior produção de nuvens, que refletem a luz de volta ao espaço, o desmatamento tem um efeito geral de aumento do aquecimento. As florestas em pé, no dois casos, servem como sorvedouros e reservatórios de carbono, sua derrubada - especialmente na forma de queimada - libera enorme quantidade de CO2. Betts et al. 2007 e Bala et al. 2007 apresentam  modelagens do efeito geral - a perda de cobertura vegetal tem um efeito significativo sobre o clima, mas de resfriamento. O que, claro, não significa que tudo bem desflorestar - elas alteram os padrões hídricos locais, há a perda de biodiversidade e diversos outros serviços ambientais. Além disso, os dois estudos concordam que para as florestas tropicais (como é o caso da Mata Atlântica e da Amazônica), o efeito do desflorestamento é de aquecimento.

*Upideite(06/mai/2012): corrigi o título da postagem, estava 'Jogos' no plural.
**Upideite(06/mai/2012): O padrão da garoa na região de São Paulo pode mesmo não ter uma tendência de diminuição. Gonçalves et al. 2008 encontraram uma ligeira diminuição do número de dias de garoa na RMSP entre 1933 e 2005, com os anos de 2004 e 2005 com índice equivalente aos picos de 1933 e 1934 (Figura 1). O que não quer dizer que o padrão climático paulistano não tenha mudado ao longo do tempo. Outros parâmetros têm uma tendência bem mais clara: dias de neblina (queda), umidade relativa do ar (queda), temperatura média do ar (aumento).
Figura 1. Padrão de variação de (painéis superiores) garoa (esquerda), neblina (direita); (painéis inferiores) umidade relativa do ar (esquerda) e temperatura do ar (direita) na Região Metropolitana de São Paulo, entre 1933 e 2005. Fonte: Gonçalves et al. 2008.

Upideite(06/mai/2012): A terceira parte: Jogo dos Erros 3c.
Upideite(09/mai/2012): O Prof. Dr. Fabio Luiz Teixeira Gonçalves, gentilmente, informou-me por email que os índices de 2008-2010 segundo dados da estação meteorológica do IAG foram respectivamente - 64, 117 e 90 dias (sendo a média histórica de 85 dias de garoa por ano). No artigo original, embora a análise indicasse uma pequena queda, os autores frisam que não é uma tendência clara. Gonçalves diz que pode haver uma variação decadal e é preciso um estudo mais pormenorizado.

sexta-feira, 4 de maio de 2012

Jogo dos erros 3

Ricardo Augusto Felício, da Geografia da FFLCH/USP, deu uma entrevista ao Programa do Jô na quarta-feira (02/mai/2012). É uma entrevista de quase meia hora de duração, então o trabalho de transcrição é pesado. Publicarei aqui os trechos em várias postagens, junto, claro, com as contestações das alegações do geógrafo.

1'13: "Começa que já nem é uma teoria [Jô Soares falava sobre o derretimento do gelo do continente antártico pelo aquecimento global]. Isso é uma hipótese, então não (sic) carece de prova científica."
O professor já começa com uma estranha concepção de hipótese (muito comum entre os negacionistas da evolução) como uma conjectura sem base. Sendo que, em ciências, hipótese é uma explicação testável para um fenômeno em particular, enquanto que teoria é uma explicação testável para uma classe mais ampla de fenômenos.


1'25: "Não tem prova científica do aquecimento global. São 26 anos, na verdade são 3.000 anos que essa história já existe. Nossos pesquisadores da equipe da ClimaGeo já foram buscando essa informação. Já se discutiu isso nas ágoras das pólis gregas: se cortasse árvore iria mudar o clima do planeta. No senado romando se fariam ou não os aquedutos porque iria mudar o clima. E por aí foi até hoje nós estamos com essa historinha, mesma coisa: o clima vai mudar, o clima vai mudar, o homem mexe no planeta, não sei o quê e não mexe nada."
Deixando de lado a questiúncula a respeito de provas e indícios, há indícios muito sólidos do aquecimento global como apresento na série sobre o aquecimento global antropogênico.

2'38: "A gente tem que tomar muito cuidado com isso porque isso são ações locais e não são ações planetárias. [...] As alterações são muito pequenininhas, as cidades de São Paulo faz o seu microclima por exemplo, né. Aí o clima global é outra coisa. O discurso desse pessoal é que a cidade altera o clima do planeta, portanto a cidade tem que se adaptar à mudança do clima que ela mesmo fez. Mas peraí, é um raciocínio circular, né?"
O professor está correto em diferenciar alterações locais de microclima de alterações em escala global. Mas ele cria um espantalho ao dizer que a questão é a alteração em uma cidade em particular. A quantidade de gases-estufa (em especial o CO2 - e também o metano) lançada na atmosfera é em escala global - por cidades e campos espalhados por todo o globo.
(Detalhe menor: se alguém defendesse o espantalho criado por Felício, seria um argumento errado, mas não circular.)

3'11: "Não, o gelo derrete e congela de novo, né? Tem os ciclos, isso já é muito conhecido, desde o final da Segunda Guerra Mundial. Primeiro que o próprio cenário de guerra era o cenário polar, né? A gente está acostumado a sempre ver o mundo naquele... no planisfério, acha que os EUA está do lado de cá, a Rússia está do outro lado, eles vão se matar por mísseis por cima do Atlântico, né? Não, eles vão se matar em cima do polo. Na verdade eles estão pertinhos um do outro, né? Então conhecimento do gelo, já na época militar, já é muito difundido. Então o próprio Ano Geofísico Internacional em 1957 até 1958, estendido até 1959, a primeira missão dos americanos foi atravessar os polos e inclusive colocaram um submarino nuclear no polo. Isso exatamente [por baixo da calota polar]. O primeiro foi o submarino Nautilus, que conseguiu em 1957 atravessar o polo todo, e o submarino Skate, ele conseguiu furar o gelo, quer dizer, eles já sabiam exatamente onde estão as dolinas, né, que são as aberturas no gelo do ártico pra poder colocar arma de guerra lá. Então o clima e o militarismo estão sempre andando juntos."
De fato, há um ciclo de derretimento e congelamento do gelo polar. Mas ocorre que, pelo que podemos saber, a cada ciclo *menos* gelo congela do que o que derreteu (Figuras 1 e 2)
Figura 1. Variação da extensão de derretimento do gelo ártico. Fonte: GISS/Nasa.
Figura 2. Variação da massa glacial antártica. Fonte: Nasa.

4'30: "Não, não [não está subindo]. O nível do mar continua do mesmo lugar. Tem, tem [esse papo]. Essa história também, ah, as calotas estão derretendo. Não. Primeiro que se fosse derreter alguma coisa, teria que ser a Antártida, então aí sim você teria a elevação do nível considerável. Mas, pra derreter a Antártida, cá pra nós, você teria que ter uma temperatura na Terra, assim, uns 20 ou 30 graus muito mais elevado."

4'56: "Não [o nível do mar não está subindo]. Ele tem pequenas variações. Por exemplo, só o El Niño, que é um fenômeno completamente natural, varia o mar meio metro. E aí, os piores cenários do IPCC, que é o Painel Intergovernamental para Mudanças do Clima, o pior cenário deles é 50 cm. Em 100 anos."
É verdade que há oscilações no nível dos oceanos, mas os dados mostram uma tendência de aumento. Vide o gráfico na resposta ao Molion (Figura 4). E como vimos na Figura 2, a Antártica está perdendo gelo, mesmo longe desses 20 graus de variação. O pior cenário é um pouco maior: 59 cm (excluindo os efeitos da mudança na dinâmica do gelo), mas a questão é que seria uma elevação permanente e por todos os oceanos - e não uma alteração temporária e localizada.

5'23: "Tem [uma medição feita pelo capitão Cook]. Acho que é de 1780, mais ou menos. No mesmo lugar, o nível do mar está no mesmo lugar."
Não está no mesmo lugar nem ali. O nível está subindo -  mesmo a região da marcação não sendo uma região geologicamente inerte conforme comentado na resposta a Molion.

----------------------
Upideite(04/mai/2012): Seguem mais trechos da transcrição.


5'37: "Tem uma situação mais engraçada. Eu fui fechar minha conta num banco que se diz sustentável, essas coisas. Eu odeio essa história, né? 'Mas o senhor faz o quê?' 'Eu sou professor de climatologia.'Uh! O mundo vai acabar!' Eu: 'Ai, meu deus...' E assim, as pessoas estão desesperadas. O mundo vai acabar. O aquecimento global virou o bode expiatório para todos os males da humanidade."
Tirando a questão anedótica (no sentido de ser só um exemplo sem representatividade estatística) e o franco exagero como "bode expiatório de todos os males da humanidade", há, sim, uma parcela dos defensores da hipótese do aquecimento global que exageram nas consequências - ultrapassando o limite do catastrofismo. É questão de uma análise serena sobre os dados, indicando uma tendência de aumento da temperatura vinculada a efeitos da atividade humana (emissão de gases-estufa e modificação do uso da terra, entre outras) e que há um bom grau de incerteza a respeito da situação futura. Nesse cenário de incerteza é que devemos ser cautelosos e tomar medidas para evitar possíveis consequências ruins - o princípio da precaução.

6'16: "Esse [o efeito estufa] é o pior de todos. Esse é uma física impossível. De jeito nenhum [o mundo acaba em 2012]. O efeito estufa é a maior falácia científica que existe na história, né? Primeiro que ele é baseado num conceito científico que não existe. A Terra tem essa temperatura porque ela tem atmosfera, recebe energia do Sol, tem uma interação com a atmosfera e por lei dos gases, note, não é uma teoria, é a lei dos gases: pressão, temperatura, né?, e volume. Então por causa de ter uma atmosfera, nós temos essa temperatura. Ai, eu adoro essa discussão que os aquecimentistas, que são os que trabalham pro lado do aquecimento global: 'Não, o maior exemplo de que o CO2 realmente acaba com o planeta Terra, acabaria com o planeta Terra é Vênus.' Aí eu falo: 'Ah é?' 'É.' 'Então qual é a pressão atmosférica na superfície de Vênus?' 'Hã, não sei.' 'É. São 90 vezes a pressão atmosférica da Terra.' Portanto, a temperatura lá é de 400 graus na superfície, não é por causa do CO2, é por causa da pressão atmosférica da atmosfera de Vênus. Não, essa física [do efeito estufa] não existe.'"
Concordo em um ponto com o entrevista: o mundo não acaba em 2012. Mas a preocupação não é com 2012, 2013, 2014 (bem, essa é pela Copa)... mas, sim, com um cenário de 20 a 30 anos ou mais. Quanto ao efeito estufa, ele não é baseado em um conceito científico: é baseado em dados reais - da natureza e de laboratório. O efeito estufa é, sim, o efeito de aumento da temperatura pela presença de uma atmosfera. Mas a lei dos gases ideais não pode ser a explicação pelo simples fato de se ignorar o fluxo de energia: à noite a temperatura atmosférica é menor, mesmo se a pressão local não se alterar. Por outro lado, Mercúrio tem uma temperatura superficial média muito maior do que a da Terra (167°C contra 15°C), mesmo com uma atmosfera com uma pressão de apenas 10^-15 bar, em comparação com 1,014 bar em nosso planeta.**
O princípio físico do efeito estufa é simplesmente a capacidade térmica (grandeza que relaciona a variação de temperatura de uma substância  ao receber uma determinada quantidade de energia) dos gases e o perfil do espectro de absorção de energia eletromagnética dos gases.
Além disso, o papel do CO2 na temperatura de Vênus é bem estabelecido, vide, p.e Wildt (1940), Pollack et al. (1980)Prinn & Fegley (1987).*

8'07: "Que não existe. Camada de ozônio é uma coisa que não existe. A história do ozônio é conhecida como, né, nos cientistas sérios, não esses que estão aí vendidos, chapa-branca que a gente chama, não é? Trabalham pra governos, empresas, etc. e tal. Cientistas sérios, o próprio pai da coisa, é o Dobson, que no Ano Geofísico Internacional se propôs a ir a Antártica justamente pra saber qual era a variação do ozônio na camada... na calota polar. Ele já sabia que o ozônio desaparecia completamente na Antártida. E aí, de lá pra cá, os caras desaparecem com essas informações e falam que é o seu desodorante que destrói a camada de ozônio."
Verdade que, tal como o degelo e o congelamento e o nível dos oceanos, há uma variação cíclica. Porém, há uma tendência de longo prazo nessa variação (Figura 3). A concentração de ozônio sobre a região Antártica tem uma tendência de queda desde o início das mediçõesa década de 1970 a 1980***, a tendência é revertida em meados da década de 1990 - quando as medidas de banimento dos CFCs surtiamcomeçaram a surtir efeito (Figura 4).


Figura 3. Evolução da concentração atmosférica de ozônio sobre a região antártica. Fonte: Nasa.

Figura 4. Evolução da concentração atmosférica de CFCs - em verde, região antártica. Fonte: NOAA.

Além disso, está bem estabelecido em laboratório a ação de moléculas de clorofluorcarbonos na decomposição de ozônio, por exemplo, Wong et al. 1992.

9'09: "É, aí quando você vai ver o que acontece, é a quebra das patentes do CFC, dos gases refrigerantes. Então em 1987 começam a terminar as patentes, elas começam a se tornar públicas, você não precisa mais pagar royalties pra elas, então a indústria toda que detém essas patentes lançam um substituto chamado HCFC, que é um organofluorclorado como qualquer outro, mas custa, né, o CFC passa a custa US$ 1,38/kg, o outro passa para US$ 38/kg. Mas a grande vantagem é que ele não funciona em nenhuma das geladeiras anteriores, ar-condicionado e tudo o mais. Então é extremamente sustentável você ter que vender, jogar tudo fora e comprar tudo novo. Hoje as patentes vencem em 25 anos, então o discurso agora é os HCFCs, milagrosamente se descobriu que eles também fazem mal pra camada de ozônio e aquecimento global."
A ação do HCFC sobre o ozônio era conhecida desde o começo, ocorre que, à época, era uma das melhores alternativas, já que, por sua meia-vida mais curta, seu efeito é muito menor do que os freons usados até a época do banimento: e.g. Solomon et al. 1992; Ravishankara et al. 1994;

Upideite(06/mai/2012): 2a. parte: Jogo dos Erros 3b.
*Upideite(07/mai/2012): adido a esta data.
**Upideite(11/mai/2012): Há também uma inversão de causalidade - a atmosfera de Vênus não é quente por causa da pressão, mas a pressão é alta por causa da temperatura; do mesmo modo como uma fonte externa de energia aquece a água da panela de pressão, fazendo com que a pressão interna aumente.
***Upideite(14/mai/2012): Para uma revisão sobre a camada de ozônio e o papel dos CFCs, vide Rowland (2006).
Updeite(14/mai/2012): Nos comentários, Alexandre Lacerda, indica textos sobre o tema que ele traduziu do Skeptical Science: "O Guia Científico do Ceticismo quanto ao Aquecimento Global" e "Os argumentos céticos e o que a ciência diz sobre eles".

LinkWithin

Related Posts with Thumbnails