Conecta con nosotros

Intelligente

Infodemia o cómo las fake news arrasan en el sector salud

‘El 54% de los españoles no sabe distinguir las noticias falsas’.
Sara Degli-Esposti, científica en el Instituto de Filosofía (IFS) del CSIC.
David Arroyo, experto en criptografía del CSIC.

Infodemia o cómo las fake news arrasan en el sector salud. Tal es la preocupación que la mismísima Organización Mundial de la Salud ha calificado el fenómeno de las noticias falsas como una pandemia.

El 54% de los españoles considera que no sabe diferenciar las noticias falsas, o fake news, según datos de Trust Project, un informe impulsado por varios medios de comunicación nacionales.

Te lo contamos en conideintelligente.com, el portal profesional exclusivo de IPDGrupo.com que te ofrece información para decidir sobre innovación, tecnología y salud.



Infodemia o cómo las fake news arrasan en el sector salud

Ya en 2018, la consultora Gartner predijo que en 2022 la mayoría de países occidentales consumirán más información falsa que noticias reales.

Además, la pandemia de SARS-Cov-2 no ha hecho más que agravar la situación. Según la Sociedad Española de Médicos Generales y de Familia, el 90% de los especialistas han atendido a pacientes preocupados por datos que habían extraído de fake news en internet o redes sociales.

A diario, los ciudadanos fueron bombardeados con informaciones falsas que les hacían creer innecesarias las medidas sanitarias o cuestionaban la efectividad, naturaleza y objetivo de la vacuna.

El fenómeno de la desinformación en el ámbito sanitario fue tal que la Organización Mundial de la Salud lo calificó como infodemia.

Infodemia o cómo las fake news arrasan en el sector salud. Tal es la preocupación que la mismísima Organización Mundial de la Salud ha calificado el fenómeno de las noticias falsas como una pandemia.

Ciencia falsa

La pandemia fue un caldo de cultivo perfecto para el aumento de los bulos surgidos de eso que los científicos llevan años denunciando: la ciencia falsa.

«Las noticias falsas disfrazadas de ciencia se han usado para intentar sabotear la agenda social y para hacer dudar a la ciudadanía sobre una información que ha sido complicada y cambiante», expone Sara Degli-Esposti, investigadora científica en el Instituto de Filosofía (IFS) del CSIC.

Degli-Esposti es coordinadora científica de Tresca, proyecto europeo enmarcado en el programa Horizonte 2020 que utilizará la ciencia de datos para mejorar la comunicación científica y a cazar fake news. 

«Los que fomentan la desinformación a menudo se basan en argumentos de autoridad falaces, se inventan estudios no avalados por la comunidad científica o se identifican como científicos o divulgadores y cuentan el discurso que les conviene», advierte la investigadora. E indica que ha habido quienes han difundido información científica manipulada a través, sobre todo, de las redes sociales.

David Arroyo y Sara Degli-Esposti, investigadores del CSIC. / Álvaro Muñoz Guzmán

Las redes sociales no son un lugar seguro

El equipo de Degli-Esposti ha preguntado a más de siete mil personas de todas las edades en siete países de la Unión Europea (Francia, Alemania, Italia, España, Polonia, Hungría y los Países Bajos) si creen que las redes sociales pueden ser peligrosas o dañinas para sus usuarios.

El resultado fue contundente: la mayoría de las personas creen que las redes sociales no son un lugar seguro.

Bulos científicos, asuntos ideológicos

Esta desconfianza es resultado de la pérdida de control sobre la información que en ellas se comparte. «Al final, las redes pueden cambiar nuestra forma de percibir el mundo…

… Los bulos en redes pueden estar dirigidos a confirmar cierta percepción del mundo, es lo que se llama sesgo de auto-confirmación».

Sobre todo, en ambientes de polarización política, como el que se está viviendo en los últimos años en gran parte de países occidentales, los bulos científicos se convierten en asuntos ideológicos.

Educación de la ciudadania

Y la mejor herramienta para acabar con esto, creen los investigadores, pasa por la educación de la ciudadanía, de los usuarios de las nuevas tecnologías.

En los últimos años han surgido equipos de periodistas especializados en desmontar bulos científicos. Son los denominados factcheckers, o verificadores, como por ejemplo el proyecto Maldita Ciencia.

«Los periodistas que trabajan confirmando informaciones son muy buenos, pero son limitados y la capacidad de reproducción de las fake news es enorme», señala David Arroyo, experto en criptografía del CSIC y especializado en ciberseguridad.

«Las campañas de desinformación son muy rápidas y no da tiempo a reaccionar”» añade. Para esquivar este problema, desde Tresca trabajan para desarrollar una herramienta digital denominada Misinformation Widget, con la que pretenden ayudar a los periodistas y verificadores de noticias a cazar de manera más eficaz los bulos. Además, quieren enseñar a los usuarios a detectarlos. «Queremos contribuir a la alfabetización digital», indica Arroyo.

«Los periodistas que trabajan confirmando informaciones son muy buenos, pero son limitados y la capacidad de reproducción de las fake news es enorme»

Algoritmos contra la desinformación

Degli-Esposti remarca la diferencia entre los términos mis- dis-information, una distinción que no existe en castellano. ·La desinformación es intencional, se trata de campañas creadas por ciertos sectores políticos, sociales o económicos buscando un fin concreto», explica la investigadora.

Sin embargo, la eficacia de estas campañas depende de la presencia de noticias infundadas o de noticias engañosas con un fondo de verdad presentes en la opinión pública. Esto sería la mis-información.

Misinformation

«La misinformation no tiene un componente de intencionalidad, sino que está relacionada con la confusión de los usuarios, en definitiva, con el analfabetismo digital. Esto genera vulnerabilidades en la opinión pública, que pueden ser aprovechadas por parte de agentes con malas intenciones», aclara Degli-Esposti.

Arroyo pone como ejemplo a su madre. «Ella es la usuaria media, si se cree una noticia falsa, significa que otra mucha gente lo hará», expone el investigador, que explica que la desinformación intencionada se nutre del desconocimiento generalizado.

«Basta con que una persona bienintencionada crea una información falsa y la comparta de manera inocente con sus allegados para que la mis-información evolucione a desinformación», indica Arroyo.

De esta forma, con herramientas como Misinformation Widget los investigadores quieren facilitar la labor de los periodistas utilizando el procesamiento de conjuntos de datos y el aprendizaje automático, con el fin de detectar una campaña de desinformación de forma más rápida.

Sin embargo, lo necesario es que los usuarios adquieran las habilidades para detectar las fake news.



La clave está en la alfabetización digital

La investigación de Tresca muestra que con la educación adecuada los usuarios podrán usar mejor las tecnologías digitales.

«La alfabetización digital es clave para acabar con las campañas de desinformación», opinan ambos investigadores. Pero, ¿cómo pueden los modelos de aprendizaje automático ayudar a combatir esta pandemia informativa?

El cebo o Clickbait

Lo primero, señala Arroyo, es integrar las distintas fuentes de información. «Las introducimos en el sistema, las procesamos y extraemos información, que más tarde nos servirá para crear etiquetas», explica.

«Nos fijamos en temas, autores, protagonistas de las noticias, el tipo de escritura, muy importante para detectar el clickbait, y la forma en la que esta información se comparte en redes sociales».

Twitter y su accesibilidad

Fundamentalmente se centran en Twitter, por su accesibilidad. Arroyo y su equipo observan qué perfiles están más involucrados en campañas de difusión de fake news y la relación entre diferentes cuentas que difunden bulos de un determinado sesgo ideológico.

Parte del proceso de análisis de los textos informativos es manual, porque requiere conocimiento experto. Aquí es donde entra la parte humanística del equipo, que colabora mano a mano con la parte técnica.



IA y Big Data

«Los programadores rara vez tienen suficientes nociones de historia, geopolítica o, incluso de lingüística, por lo que la parte del equipo experta en humanidades aplica sus conocimientos», explica Degli-Esposti. Y recalca la necesidad de equipos interdisciplinares como el de Tresca para que el etiquetado y la información que se le enseña al sistema de inteligencia artificial no contenga graves sesgos.

«En la investigación en big data y ciencia de datos crece la necesidad de complementar el análisis cualitativo y cuantitativo de un fenómeno y valorar los sesgos de humanos y algoritmos. La calidad del etiquetado de las bases de datos usadas para entrenar modelos de inteligencia artificial es fundamental para garantizar la fiabilidad de los resultados», advierte Degli-Esposti.

Pauta adecuada de uso de tecnología digital

Su nueva herramienta permite que el usuario se haga su propio mapa mental, primero, para entender cómo funciona la difusión de información falsa y, segundo, para comprender su propia forma de pensar y finalmente descubrir por qué anteriormente tomaba como verdaderas ciertas fake news.

«Lo que pretendemos es apoyar a los periodistas y enseñar a los usuarios una pauta adecuada de uso de tecnología digital para poder analizar en primera persona el grado de fiabilidad», expone Arroyo.

«Es una línea de investigación en la que seguimos trabajando. Nosotros creemos que una metodología y un conjunto de herramientas es más efectivo que decirle a la gente qué noticia es la que tiene que creer», concluye Arroyo.

Con información de Esther M. García Pastor / CSIC Comunicación

‘i de intelligente’ es el portal digital exclusivo de la ‘gente intelligente’, gente como tú que ya empieza a disfrutar del futuro en su día a día. ‘i de intelligente’ te ofrece información veraz para que puedas conocer y comprender la nueva realidad, la que ya está aquí y la que vendrá antes de un abrir y cerrar de ojos. ‘i de intelligente’ (futuro) es uno de los cuatro pilares de una aventura digital única, junto a ‘Pérez no es ratón’ (salud), ‘con R de ruido’ (medioambiente) y ‘jupsin’ (igualdad). Información para decidir, sin límites, sin barreras, sin prejuicios… para gente intelligente, para gente como tú.

Deja tu comentario

Deja tu comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

publicidad

¿Puedo tener dos firmas diferentes?

Intelligente

Aumento de pene, todo lo que debes saber

Salud y más

Así serán las vacaciones de verano del futuro

Idígoras y Pachi

Un ‘respiro’ para la investigación

Idígoras y Pachi

Connect
Newsletter Signup

Introduce tu email