Todo estudante da área de ciências aprende a expressão “Estatisticamente significante”, quantos realmente entendem apropriadamente o que estão dizendo? Alguns conceitos simples de significância não são bem sedimentados. Assim muitos pensam que “estatisticamente significante” significa “biologicamente relevante”. De modo inverso, a ausência de significância estatística não significa que há uma evidência de inexistência do efeito ou da associação (Ausência de evidência não é evidência de ausência). O engano acontece mesmo com aqueles que sabem definir estas diferenças.
A compreensão da significância estatística é um ponto de extrema importância na formação científica, pois a publicação de um trabalho pressupõe que os dados mostrados não aconteceram por mero acaso na amostragem ou devido a fatores não controlados no estudo. Para uma análise crítica do tema, recomendo o artigo “Odds Are, It's Wrong. Science fails to face the shortcomings of statistics” de Tom Siegfried no ScienceNews (March 27th, 2010; Vol.177 #7; p. 26). O artigo é um pouco longo, mas merece o tempo dedicado à sua leitura.
Veja abaixo alguns tópicos do artigo para estimular a leitura:
“… there’s no logical basis for using a P value from a single study to draw any conclusion. If the chance of a fluke is less than 5 percent, two possible conclusions remain: There is a real effect, or the result is an improbable fluke. Fisher’s method offers no way to know which is which. On the other hand, if a study finds no statistically significant effect, that doesn’t prove anything, either. Perhaps the effect doesn’t exist, or maybe the statistical test wasn’t powerful enough to detect a small but real effect.”
“A recent popular book on issues involving science, for example, states a commonly held misperception about the meaning of statistical significance at the .05 level: “This means that it is 95 percent certain that the observed difference between groups, or sets of samples, is real and could not have arisen by chance.” That interpretation commits an egregious logical error (technical term: “transposed conditional”): confusing the odds of getting a result (if a hypothesis is true) with the odds favoring the hypothesis if you observe that result. A well-fed dog may seldom bark, but observing the rare bark does not imply that the dog is hungry. A dog may bark 5 percent of the time even if it is well-fed all of the time.”
“Because of the way statistical formulas work, a study with a very large sample can detect “statistical significance” for a small effect that is meaningless in practical terms. A new drug may be statistically better than an old drug, but for every thousand people you treat you might get just one or two additional cures — not clinically significant.”
“Ziliak studied journals from various fields — psychology, medicine and economics among others — and reported frequent disregard for the distinction. “I found that eight or nine of every 10 articles published in the leading journals make the fatal substitution” of equating statistical significance to importance, he said in an interview.”
Espero ter convencido que você não deve dormir hoje sem ter lido o artigo completo. Ou pelo menos não deixe de ler o tópico sobre erro em ensaios clínicos:
“Determining the best treatment for a particular patient is fundamentally different from determining which treatment is best on average,” physicians David Kent and Rodney Hayward wrote in American Scientist in 2007. “Reporting a single number gives the misleading impression that the treatment-effect is a property of the drug rather than of the interaction between the drug and the complex risk-benefit profile of a particular group of patients.”
Tem outros tópicos interessantes, sobre meta-análise e estatística bayesiana, por exemplo.
Barral, parabéns por postar este comentário e artigo. Esta é uma prática que está se tornando um (mau) hábito que nossos estudantes, já há algum tempo, estão passando de geração em geração e tenho a impressão pouquíssimos orientadores estão atentos a isto. Em todas as teses que analiso e seminários de estudantes que escuto, esses mesmos estudantes não têm noção do que estão falando quando aplicam a tal da estatística. Simplesmente aplicam os testes e concluem a relevância da (micro) diferença que é estatisticamente significativa. Isto se perpetua pelo agravante de que os periódicos, tiradas as exceções, acabam aceitando tais conclusões. Este é o tipo de artigo que eu gostaria de ter escrito. Como eu já estou convencida, dormirei hoje sem ler o artigo, mas certamente o lerei e passarei para nossos estudantes. Espero que o maior número possível de estudantes (e orientadores) leiam o seu blog e o artigo. É 1o. de abril, mas não é mentira!
ResponderExcluirBarral,
ResponderExcluirum pouco na mesma linha, veja o artigo publicado na New Yorker, "The decline effect and the scientific method"... http://www.newyorker.com/reporting/2010/12/13/101213fa_fact_lehrer?currentPage=all
Uma das melhores coisas que li nos ultimos tempos ...
Sou PhD em estatistica pela USP e owner da STAT-MATH (um dos maiores grupos de estatistica do Brasil com 4500 membros) e fico feliz de ver que existem pessoas que reconhecem que a estatistica nao e' perfeita mas que o mundo seria ainda pior sem ela. Copiando uma frase da minha amiga Doris (CONRE-SP): E' facil mentir com a estatistica, dificil e' dizer a verdade sem ela.
abracos,
Helio