Nome original do viés: Spin bias

Tradutor: Carolina Oliveira Cruz Latorraca

Primeiro revisor: Rafael Leite Pacheco

Segundo revisor: Rachel Riera

Introdução

A melhor evidência clínica disponível deve embasar as decisões sobre cuidados em saúde. Assim, os resultados das pesquisas clínicas devem ser relatados e apresentados de forma acurada. Como Fletcher e Black ressaltaram, ‘os dados deveriam falar por si próprios’.

No entanto, pesquisadores podem ser tentados a distorcer a interpretação dos seus (ou de outros) resultados, confundindo os leitores e fazendo com que os resultados sejam vistos de um modo mais favorável (ou mais desfavorável) do que o justificável, e assim confundindo os leitores ao adicionar uma distorção.

Tais ações apresentam atrativos potenciais. Por exemplo, pode ser um modo de sugerir que uma hipótese era correta, quando na verdade não era; ou que não era correta, quando na verdade era; ou demonstrando impacto atraindo a atenção da mídia, ou agindo como uma ferramenta de marketing para influenciar intencionalmente os leitores.

O viés de distorção em estudos da área da saúde se manifesta de muitas formas, incluindo (mas não limitado a):

  • Atribuição de causalidade quando o desenho do estudo não a justifica;
  • Foco não justificado em um desfecho secundário;
  • Atenção para um desfecho primário estatisticamente significante e ignorando outros desfechos primários não significantes;
  • Alegação de uma relação de não-inferioridade ou equivalência em um desfecho estatisticamente não significante;
  • Sugestão de significância ao se referir a tendências;
  • Sugestão de significância estatística a partir das análises de subgrupo;
  • Sugestão de que populações específicas podem se beneficiar;
  • Realização de análise por protocolo (per protocol) ao invés da análise por intenção de tratar (intention-to-treat).

A EQUATOR Network considera tais práticas como relato equivocado, o que reduz a completude, transparência e o valor dos relatos das pesquisas em saúde.

Exemplos

Boutron e colaboradores foram alguns dos primeiros pesquisadores a estudar a presença de distorções nos relatos de ensaios clínicos. Eles definiram ‘distorção’ no contexto de um ensaio clínico em que não foi observada significância estatística nos desfechos primários como ‘o uso de estratégias específicas de relato, por qualquer motivo, para destacar que o tratamento experimental traz benefício, apesar da diferença estatística não significante para o desfecho primário, ou distrair o leitor dos resultados estatisticamente não significantes.’

Os autores identificaram 72 ensaios clínicos randomizados em que não houve diferença estatística entre os grupos para os desfechos primários. Eles avaliaram os resumos e textos completos de cada artigo e descobriram que mais de 68% dos resumos e 61% dos textos completos apresentavam alguma forma de distorção.

A análise identificou muitas estratégias de distorção (veja Tabela 2 do estudo original). Entre as técnicas mais frequentes estavam focar em diferenças estatísticas significativas dos desfechos secundários, ou focar em outro objetivo do estudo para afastar a atenção do leitor de uma diferença estatística não significante.

Uma revisão sistemática mais recente avaliou a natureza, prevalência e implicações das distorções em 35 publicações que cumpriram os critérios de inclusão. A revisão incluiu estudos que investigaram a associação entre distorções e os seguintes fatores:

  • Conflitos de interesse e financiamento de estudos;
  • Características dos autores;
  • Características dos periódicos científicos;
  • Desenho e/ou qualidade do estudo.

Porém, os autores assinalaram que a heterogeneidade e o pequeno número de estudos limitaram a força das conclusões.

 

Impacto

As distorções podem influenciar a interpretação da informação pelos usuários das evidências; mas, poucos estudos avaliaram isso. Um ensaio clínico randomizados alocou 150 profissionais da saúde para avaliar uma amostra de resumos de estudos com distorções relacionados ao câncer, e outros 150 profissionais para avaliar os mesmos resumos após a remoção da distorção.

Apesar do tamanho do efeito absoluto ter sido pequeno, os autores observaram que a presença da distorção provavelmente induziu mais os profissionais a relatar que o tratamento trazia benefícios. Paradoxalmente, o estudo também mostrou que as distorções fizeram com que os profissionais classificassem os estudos como ‘menos rigorosos’ e tivessem mais vontade de revisar o artigo completo.

Dois artigos controversos sobre estatinas seguidos de um grande debate na mídia foram associados a um aumento de 11% e 12% na probabilidade dos usuários pararem de tomar o medicamento para prevenção primária e secundária, respectivamente. Tais efeitos poderiam resultar em mais de 2.000 eventos cardiovasculares a mais durante em um período de 10 anos no Reino Unido.

 

Passos para prevenção

Como apontado por Chiu e colaboradores, existem várias formas de se prevenir as distorções. Elas incluem revisões por pares e editores de revistas científicas checando se os manuscritos recebidos, principalmente os resumos, resultados e discussão, são consistentes com os principais achados da pesquisa.

Mas a responsabilidade de prevenir as distorções recai, em primeiro lugar e principalmente, nos próprios pesquisadores. Eles devem resistir à tentação de superestimar (subestimar) os achados de seus estudos, e resistir à vontade de outras pessoas envolvidas que tentam fazer o mesmo.

Eles podem ser persuadidos a  isso pelo conhecimento, como sugerido pelos resultados de um ensaio clínico de 2019, que moderou os achados de correlação usando afirmativas mais cautelosas e ressalvas explícitas  em torno da ‘causalidade’ e assim não prejudicaram as notícias e o interesse da mídia  com a omissão de tais precauções ou advertências (distorções).

As evidências utilizadas para a tomada de decisão não devem ser baseadas em estudos únicos, mas devem ser informadas por revisões sistemáticas relevantes. Porém, como destacado em outra análise, os usuários das evidências devem estar atentos às distorções que podem contaminar as revisões sistemáticas.

As submissões de estudos a revistas científicas devem ser acompanhadas por todo o conjunto dos dados (quando eticamente apropriado), para permitir reanálises subsequentes e promover replicações do estudo.

Os usuários das evidências também podem considerar utilizar ferramentas para ajudar a detectar o viés de distorção. Nove dos estudos incluídos na revisão de Chiu e colaboradores (Chu et al. 2017) utilizaram um formulário padrão  como ferramenta para identificar as distorções descritas primeiramente por Boutron e colaboradores. Vinte e três relatos usaram um formulário estruturado, embora menos da metade tivesse evidência de validação ou teste piloto prévio da ferramenta.

Link para o original:  https://catalogofbias.org/biases/spin-bias/

 

Deve ser citado como:

Catalogue of bias collaboration, Mahtani KR, Chalmers I, Nunan D. Spin bias. In Catalogue Of Bias. 2019. https://catalogofbias.org/biases/spin-bias/

 

Fontes:

Adams RC, et al. Claims of causality in health news: a randomised trial. BMC Medicine 2019; 17:91.

Boutron I, et al. Impact of spin in the abstracts of articles reporting results of randomized controlled trials in the field of cancer: the SPIIN randomized controlled trial. Journal of Clinical Oncology 2014; 32(36): 4120–26.

Boutron I, et al. Reporting and interpretation of randomized controlled trials with statistically nonsignificant results for primary outcomes. JAMA 2010; 303(20): 2058–64.

Chiu K, Grundy Q, Bero L. “Spin” in published biomedical literature: A methodological systematic review. PLOS Biology 2017; 15(9): e2002173/.

Fletcher RH, Black B. Spin in scientific writing: scientific mischief and legal jeopardy. Med Law 2007; 26(3): 511-25.

Mahtani KR. “Spin” in reports of clinical research. BMJ Evidence-Based Medicine 2016; 21: 201-2.

Matthews A, et al. Impact of statin related media coverage on use of statins: interrupted time series analysis with UK primary care data. BMJ 2016; 353: i3283.

Yavchitz, et al. A new classification of spin in systematic reviews and meta-analyses was developed and ranked according to the severity. J Clin Epidemiol. 2016; 75: 56-65.