Covid-19: ¿Quién comprueba la salud y la ciencia en Facebook?

BMJ 2021 ; 373 doi: https://doi.org/10.1136/bmj.n1170 (Publicado el 25 de mayo de 2021)Citar esto como: BMJ 2021; 373: n1170

Laurie Clarke , periodista autónoma

La abrumadora presión de los gobiernos y el público ha obligado a las plataformas de redes sociales a tomar medidas sin precedentes sobre lo que los usuarios comparten en línea durante la pandemia. Pero, ¿quién comprueba los hechos? Laurie Clarke informa

En una medida comparada con la forma en que los gobiernos asumieron poderes de emergencia en respuesta a la pandemia de covid, Facebook eliminó 16 millones de piezas de su contenido y agregó advertencias a alrededor de 167 millones. YouTube ha eliminado más de 850 000 videos relacionados con «información médica peligrosa o engañosa del covid-19».

Si bien es probable que una parte de ese contenido sea intencionalmente equivocado o engañosamente vengativo, la pandemia está plagada de ejemplos de opiniones científicas que han quedado atrapadas en la red, lo que ha dado lugar a su eliminación o eliminación de prioridades, según la plataforma y el contexto. Esto subraya la dificultad de definir la verdad científica, lo que genera la pregunta más importante de si las plataformas de redes sociales como Facebook, Twitter, Instagram y YouTube deberían tener la tarea de hacer esto.

«Creo que es bastante peligroso que el contenido científico sea etiquetado como información errónea, simplemente por la forma en que la gente podría percibirlo», dice Sander van der Linden, profesor de psicología social en la sociedad en la Universidad de Cambridge, Reino Unido. “Aunque podría encajar en una definición [de desinformación] en un sentido muy técnico, no estoy seguro de si esa es la forma correcta de describirlo de manera más general porque podría conducir a una mayor politización de la ciencia, lo cual no es deseable”.

Cómo funciona la verificación de hechos

La última década ha sido testigo de una carrera armamentista entre los usuarios que venden desinformación (intencionalmente diseñada para inducir a error) o inconscientemente comparten información errónea (que los usuarios no se dan cuenta de que es falsa) y las plataformas de redes sociales que se encuentran encargadas de vigilarlo, ya sea que lo deseen. o no. 1

Cuando The BMJ cuestionó a Facebook, Twitter y YouTube (que es propiedad de Google), todos destacaron sus esfuerzos para eliminar el contenido potencialmente dañino y dirigir a los usuarios hacia fuentes autorizadas de información sobre el covid-19 y las vacunas, incluida la Organización Mundial de la Salud y la Centros para el Control y la Prevención de Enfermedades de EE. UU. Aunque sus políticas de moderación difieren ligeramente, las plataformas generalmente eliminan o reducen la circulación de contenido que cuestiona información proporcionada por autoridades sanitarias como la OMS y los CDC o difunde afirmaciones de salud falsas que se consideran nocivas, incluida información incorrecta sobre los peligros de las vacunas.

Pero la pandemia ha visto un mosaico cambiante de criterios empleados por estas empresas para definir los límites de la desinformación. Esto ha llevado a algunos cambios de sentido sorprendentes: al comienzo de la pandemia, las publicaciones que decían que las máscaras ayudaron a prevenir la propagación del covid-19 fueron etiquetadas como “falsas”; ahora es todo lo contrario, reflejando la naturaleza cambiante del debate académico y las recomendaciones oficiales.

Twitter gestiona su verificación de datos internamente. Pero Facebook y YouTube dependen de asociaciones con verificadores de hechos de terceros, convocados bajo el paraguas de la Red Internacional de Verificación de Datos, un organismo no partidista que certifica a otros verificadores de hechos, dirigido por el Instituto Poynter de Estudios de Medios, un periodismo sin fines de lucro escuela en San Petersburgo, Florida. Los principales donantes de Poynter incluyen el Instituto Charles Koch (una organización de investigación de políticas públicas), el National Endowment for Democracy (una agencia del gobierno de EE. UU.) Y Omidyar Network (una “empresa de inversión filantrópica”), así como Google y Facebook. Poynter también es propietario del periódico Tampa Bay Times y del verificador de hechos de alto perfil PolitiFact. El Instituto Poynter declinó la invitación del BMJ a comentar este artículo.

Para el contenido científico y médico, la Red Internacional de Verificación de Datos incluye equipos poco conocidos como SciCheck, Metafact y Science Feedback. Health Feedback, una subsidiaria de Science Feedback, selecciona a los científicos para que emitan su veredicto. Con este método, etiquetó como «engañoso» un artículo de opinión 2 del Wall Street Journal que predice que Estados Unidos tendría inmunidad colectiva para abril de 2021, escrito por Marty Makary, profesor de política y gestión de la salud en la Universidad John Hopkins en Baltimore, Maryland. Esto llevó al periódico a emitir un título de refutación titulado «Verificación de hechos de los verificadores de hechos de Facebook», argumentando que la calificación era «contra opinión disfrazada de verificación de hechos». 3 Makary no había presentado su argumento como una afirmación fáctica, decía el artículo, pero había hecho una proyección basada en su análisis de la evidencia.

Un portavoz de Science Feedback le dice a The BMJ que, para verificar las afirmaciones, selecciona a los científicos sobre la base de «su experiencia en el campo de la afirmación / artículo». Explican: «Los editores de Science Feedback suelen comenzar por buscar en la literatura académica relevante e identificar a los científicos que han escrito artículos sobre temas relacionados o que tienen la experiencia necesaria para evaluar el contenido».

Luego, la organización les pide a los científicos seleccionados que opinen directamente o recopila las afirmaciones que han hecho en los medios de comunicación o en las redes sociales para llegar a un veredicto. En el caso del artículo de Makary, identificó a 20 científicos relevantes y recibió comentarios de tres.

«Sigue la ciencia»

La naturaleza polémica de estas decisiones se debe en parte a cómo las plataformas de redes sociales definen los conceptos escurridizos de desinformación versus desinformación. Esta decisión se basa en la idea de un consenso científico. Pero algunos científicos dicen que esto sofoca opiniones heterogéneas, reforzando de manera problemática la idea errónea de que la ciencia es un monolito.

Esto se resume en lo que se ha convertido en un eslogan pandémico: «Siga la ciencia». David Spiegelhalter, presidente del Centro Winton para la Comunicación de Riesgos y Evidencia en la Universidad de Cambridge, llama a esto “absolutamente horrible”, diciendo que a puerta cerrada los científicos pasan todo el tiempo discutiendo y en desacuerdo profundo sobre algunas cosas bastante fundamentales.

Él dice: “La ciencia no está al frente diciéndote qué hacer; no debería serlo. Lo veo mucho más como caminar a tu lado murmurando para sí mismo, haciendo comentarios sobre lo que está viendo y haciendo algunas sugerencias tentativas sobre lo que podría suceder si tomas un camino en particular, pero no está a cargo «.

El término «desinformación» podría contribuir en sí mismo a aplanar el debate científico. Martin Kulldorff, profesor de medicina en la Facultad de Medicina de Harvard en Boston, Massachusetts, ha sido criticado por sus opiniones sobre el encierro, que se ajustan estrechamente a la estrategia más relajada de su Suecia natal. 4 Dice que los científicos que expresan opiniones poco ortodoxas durante la pandemia están preocupados por enfrentar “diversas formas de difamación o censura. . . dicen ciertas cosas pero no otras, porque sienten que serán censuradas por Twitter, YouTube o Facebook ”. Esta preocupación se ve agravada por el temor de que pueda afectar la financiación de las subvenciones y la capacidad de publicar artículos científicos, le dice a The BMJ .

La idea binaria de que las afirmaciones científicas son correctas o incorrectas ha contribuido a la división que ha caracterizado a la pandemia. Samantha Vanderslott, socióloga de la salud de la Universidad de Oxford, Reino Unido, le dijo a Nature : «Invocar historias falsas puede elevar tu perfil». En el mismo artículo, Giovanni Zagni, director del sitio web italiano de verificación de datos Facta, señaló que «puedes construir una carrera» sobre la base de convertirte en «una voz muy respetada que lucha contra la mala información». 5

Pero esto ha alimentado un incentivo perverso para que los científicos etiqueten las posiciones de los demás como desinformación o desinformación. 6 Van der Linden compara esto con la forma en que Donald Trump utilizó el término «noticias falsas» para silenciar a sus críticos. Él dice: «Creo que ves un poco de lo mismo con el término ‘desinformación’, cuando hay ciencia con la que no estás de acuerdo y la etiquetas como desinformación».

El sitio web de Health Feedback dice que no seleccionará científicos para verificar las afirmaciones si han socavado su credibilidad al «propagar información errónea, ya sea intencionalmente o no». En la práctica, esto podría crear una situación kafkiana en la que los científicos no pueden ofrecer su opinión como parte del proceso de verificación de datos si expresaron una opinión que Facebook etiquetó como desinformación. Para fortalecer el efecto de la cámara de eco, Health Feedback a veces verifica las afirmaciones observando lo que los científicos han dicho en Twitter o en los medios de comunicación.

«Verdad» científica

Van der Linden dice que es importante que la gente entienda que en el ámbito científico «hay incertidumbre, hay debate y se trata de la acumulación de conocimientos a lo largo del tiempo y de revisar nuestras opiniones a medida que avanzamos». Un debate saludable ayuda a separar el trigo de la paja. Jevin West, profesor asociado de la Escuela de Información de la Universidad de Washington en Seattle, dice que las plataformas de redes sociales deben, por lo tanto, tener «mucho cuidado cuando se trata de debates relacionados con la ciencia». Él explica: “La institución de la ciencia ha desarrollado estas normas y comportamientos para ser autocorregibles. Entonces, para que [las plataformas de redes sociales] intervengan en esa conversación, creo que es problemático «.

Los expertos que hablaron con The BMJ enfatizaron la casi imposibilidad de distinguir entre una opinión científica minoritaria y una opinión objetivamente incorrecta (desinformación). Spiegelhalter dice que esto constituiría un difícil “juicio legalista sobre lo que sería una opinión científica razonable. . . Tengo mis propios criterios que utilizo para decidir si creo que algo es engañoso, pero me resulta muy difícil codificarlo «.

A otros científicos les preocupa que, si este enfoque de la desinformación científica sobrevive a la pandemia, el debate científico podría volverse preocupantemente sujeto a imperativos comerciales. Vinay Prasad, profesor asociado de la Universidad de California en San Francisco, argumentó en el sitio web MedPage Today: “El riesgo es que la miríada de actores de la biomedicina, desde grandes hasta pequeñas empresas biofarmacéuticas y de dispositivos [médicos], lleven sus preocupaciones a las redes sociales y empresas de revistas. En un tema como los medicamentos contra el cáncer, los líderes de opinión clave que trabajan con la empresa pueden superar en número 10: 1 a un puñado de personas que critican la aprobación de un nuevo medicamento «. 7 Por lo tanto, la mayoría de los que hablan más alto, más visiblemente y con el mayor número en línea, pueden ser considerados «correctos» por el público y, como dice el refrán, la historia la escriben los vencedores.

Las empresas de redes sociales todavía están experimentando con la nueva serie de medidas introducidas desde el año pasado y pueden adaptar su enfoque. Van der Linden dice que las conversaciones que ha tenido con Facebook se han centrado en cómo la plataforma podría ayudar a fomentar una apreciación de cómo funciona la ciencia, «para dirigir a las personas al contenido que los educa sobre el proceso científico, en lugar de etiquetar algo como verdadero o falso . «

Este debate se desarrolla contra una lucha ideológica más amplia, donde el ideal de la «verdad» se coloca cada vez más por encima del «debate saludable». Kulldorff dice: “Para eliminar cosas en general, creo que es una mala idea. Porque incluso si algo está mal, si lo quita, no hay oportunidad de discutirlo «. Por ejemplo, aunque favorece la vacunación en general, las personas con miedos o dudas sobre las vacunas utilizadas no deberían ser silenciadas en los espacios online, dice. «Si no tenemos un debate abierto dentro de la ciencia, eso tendrá enormes consecuencias para la ciencia y la sociedad».

Existe la preocupación de que este enfoque pueda, en última instancia, socavar la confianza en la salud pública. En Estados Unidos, dice West, la confianza en el gobierno y los medios de comunicación está cayendo. Explica: «La ciencia sigue siendo una de las instituciones más confiables, pero si comienzas a etiquetar y cerrar la conversación dentro de la ciencia, para mí eso es incluso peor que la publicación real de estos artículos individuales».

Notas al pie

  • Conflicto de intereses: He leído y comprendido la política de BMJ sobre declaración de intereses y no tengo intereses relevantes que declarar.

FUENTE:para leer la nota original cliquear aquí

About The Author