febrero 21, 2024

Con Climate Panel como su faro, un grupo global está abordando la desinformación

Hace dos años, en una reunión virtual organizada por la Fundación Nobel, Sheldon Himelfarb planteó la idea de que los principales académicos del mundo deberían unir fuerzas para estudiar la desinformación de la misma manera que el Grupo de Científicos expertos intergubernamentales en cambio climático han documentado el efecto global. de las emisiones de carbono.

Este nuevo grupo se reunió para su presentación oficial en Washington el miércoles, reuniendo a más de 200 investigadores de 55 países con un sentido similar de urgencia y alarma por la amenaza del calentamiento global. En el primer informe del grupo, los investigadores cuestionaron la efectividad de combatir las mentiras en línea con la moderación del contenido, una de las estrategias más comunes para combatir la desinformación, y dijeron que otras tácticas tenían más evidencia científica detrás.

“Hay que abordar el entorno de la información de la misma manera que los científicos han abordado el medio ambiente”, dijo el Sr. Himelfarb, director ejecutivo del grupo y director ejecutivo de PeaceTech Lab, una organización de defensa afiliada a las Naciones Unidas. Instituto Americano para la Paz en Washington .

El grupo, International Information Environment Panel, se registró como organización no gubernamental en Zúrich en un momento en que la lucha contra la desinformación está cada vez más sumida en una erosión más amplia de la confianza en el gobierno, las organizaciones de noticias y otras instituciones públicas.

“El sesgo algorítmico, la manipulación y la desinformación se han convertido en una amenaza global y existencial que exacerba los problemas sociales existentes, degrada la vida pública, paraliza las iniciativas humanitarias e impide el progreso en otras amenazas graves”, escribió el panel en su anuncio inaugural.

El panel se presentó en una reunión de tres días, organizada por la Fundación Nobel y la Academia Nacional de Ciencias, dedicada a la erosión de la comprensión pública y la confianza en la ciencia.

Orador tras orador en la reunión describieron una avalancha de desinformación que se ha convertido en un hecho desalentador de la vida pública en todo el mundo y que, con la reciente explosión de la inteligencia artificial, pronto podría empeorar.

Maria Ressa de Filipinas, ganadora del Premio Nobel de la Paz en 2021, publicó un manifiesto exigiendo que los gobiernos democráticos y las grandes empresas de tecnología se vuelvan más transparentes, hagan más para proteger los datos personales y la privacidad, y pongan fin a las prácticas que contribuyen a la desinformación y otras amenazas al periodismo independiente. Tiene 276 signatarios que representan a más de 140 organizaciones.

Uno de los desafíos que enfrentan estos esfuerzos es superar los argumentos cada vez más feroces sobre qué constituye exactamente información errónea. En los Estados Unidos, los esfuerzos para combatirlo han fracasado en las protecciones de la libertad de expresión de la Primera Enmienda. Las empresas más grandes ahora han desviado su atención y recursos de la lucha contra la desinformación, incluso cuando han surgido nuevas plataformas que prometen renunciar a las políticas que moderan el contenido.

El miércoles, los investigadores del panel presentaron el resumen de sus dos primeros estudios, que revisaron 4798 publicaciones revisadas por pares que examinaron información engañosa de las redes sociales y hallazgos agregados sobre la efectividad de las contramedidas.

Los hallazgos sugieren que las respuestas más efectivas a la información errónea en línea son etiquetar el contenido como «disputado» o señalar fuentes de medios estatales y publicar información correctiva, generalmente en forma de rumores desacreditados e información errónea.

Mucho menos seguro, según el informe, es la eficacia de los esfuerzos públicos y gubernamentales para presionar a los gigantes de las redes sociales como Facebook y Twitter para que eliminen contenido, así como los algoritmos internos de la empresa que suspenden o minimizan las cuentas infractoras. Lo mismo ocurre con los programas de alfabetización mediática que capacitan a las personas para identificar las fuentes de información errónea.

«No estamos diciendo que los programas de alfabetización informacional no funcionen», dijo Sebastián Valenzuela, profesor de la Pontificia Universidad Católica de Chile que supervisó el estudio. «Lo que estamos diciendo es que necesitamos más pruebas de que funcionan».

El modelo inspirador del grupo, el Panel Intergubernamental sobre Cambio Climático, fue fundado en 1988, en un momento en que también se cuestionaba el cambio climático. Sus científicos, que trabajan bajo los auspicios de las Naciones Unidas, lucharon durante décadas antes de que sus evaluaciones y recomendaciones fueran reconocidas como consenso científico.

Cuando se trata del panorama digital y el impacto del uso indebido en la sociedad, la ciencia de la desinformación podría resultar aún más difícil de medir de manera concreta. El cambio climático es «ciencia dura», dijo Young Mie Kim, profesora de la Universidad de Wisconsin-Madison que se desempeña como vicepresidenta de un comité centrado en la metodología de la investigación.

«Entonces, en términos relativos, es más fácil desarrollar conceptos y conjuntos de herramientas comunes», dijo la Sra. Kim. «Es difícil hacer eso en las ciencias sociales o las humanidades».

El nuevo panel evita un papel del gobierno, al menos por ahora. Planea publicar informes regulares, no para verificar mentiras individuales, sino para buscar fuerzas más profundas detrás de la difusión de información errónea para guiar la política del gobierno.

«Sería demasiado difícil poner a un grupo de científicos que evalúan afirmaciones de verdad en una pieza particular de chuchería», dijo Philip N. Howard, director del programa sobre democracia y tecnología de la Universidad de Oxford y presidente del nuevo panel.

“Lo que podemos hacer es buscar interferencias en la infraestructura”, continuó. «Lo que podemos hacer es auditar un sistema algorítmico para ver si tiene resultados deficientes o inesperados. Todavía es difícil, pero creo que está al alcance como objetivo de investigación».