La Inteligencia Artificial ayuda a combatir los bulos en vacunas

El Instituto #SaludsinBulos organiza con el Ministerio de Sanidad el simposio IA para la Confianza en la Vacunación, en el que participan diversas sociedades científicas y asociaciones de pacientes. La desinformación en vacunas es una de las causas del hundimiento de tasas de vacunación a niveles de hace varias décadas, según el último informe de UNICEF. Diversos estudios han demostrado que los bulos sobre las vacunas están influyendo de manera decisiva en la reticencia a vacunarse, incluso entre los propios profesionales sanitarios, y en la reaparición de enfermedades que se consideraban olvidadas como el sarampión y la tos ferina. Se ha comprobado que la Inteligencia Artificial puede ayudar a identificar las causas de la desconfianza a las vacunas y promover mensajes adaptados a las creencias y códigos de cada grupo poblacional, incluso, en ocasiones, con una empatía superior a la que proporciona el profesional sanitario.  Sin embargo, también presenta riesgos derivados de su potencia para generar mensajes con apariencia de científicos e incluso fotos y vídeos falsos indistinguibles de la realidad. El objetivo de este simposio es generar un consenso y un compromiso de acción de los profesionales sanitarios, pacientes, comunicadores y expertos en tecnología para mejorar la confianza en la vacunación aprovechando la IA y creando las condiciones para evitar sus riesgos.

Una de las posibilidades de la IA es modelar mensajes según el sistema de creencias de cada persona, a través de lo que se conoce en ciencia cognitiva como Experimentación del Desarrollo de Reglas, que ayuda a distinguir cómo las personas piensan sobre temas cotidianos mediante la identificación de patrones y la formulación de reglas y así poder desarrollar productos, servicios y mensajes adaptados a cada público. Investigadores de diversos centros de Nueva York  publicaron en la revista Vaccine de  marzo de 2024 una herramienta que ayuda a identificar a los padres que tienen más probabilidades de dudar de las vacunas, con el objetivo de realizar intervenciones específicas.  En el estudio aseguran que la IA puede ayudar a diseñar mensajes adaptados a cada sistema de creencias sobre las vacunas.

Mensajes adaptados a subgrupos de reticentes vacunales

Este posible beneficio de la IA también lo recoge un estudio publicado en enero de 2024 en British Medical Journal sobre las posibilidades de la Inteligencia Artificial Generativa en la reticencia vacunal. El trabajo, coordinador por Heidi Larson, fundadora de la iniciativa Vaccine Confidence Project, concluye que la IA “puede personalizar los mensajes de acuerdo con datos demográficos específicos, amplificando su relevancia e influencia. Esta capacidad es particularmente útil para abordar la reticencia a la vacunación, donde las razones subyacentes de la reticencia pueden divergir sustancialmente entre distintas poblaciones, cada una caracterizada por paisajes culturales y emocionales únicos”.

A juicio de los autores, los grandes modelos de lenguaje (LLM, por sus siglas en inglés), un subconjunto de la IA generativa, “proporcionan una herramienta valiosa para ayudar a discernir patrones, sentimientos y factores fundamentales que influyen en la aceptación o reticencia a las vacunas”, lo que “facilita el desarrollo de estrategias de intervención específicas”.  Por ejemplo, “chatbots basados en datos que proporcionan o contextualizan información de salud”.

A esta conclusión también llegó un trabajo anterior publicado en Journal of Medical Internet Research, en el que también intervino Heidi Larson, que señalaba que “los chatbots de vacunas incluyen su capacidad para proporcionar información creíble y personalizada en tiempo real, la familiaridad y accesibilidad de la plataforma de chatbot y la medida en que las interacciones con el chatbot se sienten ‘naturales’ para los usuarios”.

ChatGPT

Esa hipótesis ha sido contrastada en una investigación publicada en marzo de 2024 en Annals of Biomedical Engineering. Los investigadores analizaron las respuestas de ChatGPT sobre las vacunas y encontraron que “Las respuestas positivas y las opiniones de apoyo proporcionadas por el chatbot de IA podrían ser fundamentales para dar forma a las percepciones de las personas sobre las vacunas y para alentar a los usuarios a vacunarse y reducir los conceptos erróneos”.

Desinformación en vacunas

La IA puede combatir la información falsa sobre vacunas adaptando el mensaje a cada audiencia y facilitando “datos e información específica del contexto”, según el trabajo coordinado de Heidi Larson. Sin embargo, también presenta riesgos de ampliar la desinformación, advierte: “El potencial de la IA para replicar contenido similar al humano puede correr el riesgo de reproducir sesgos y amplificar la desinformación, especialmente en torno a temas delicados como la aceptación de vacunas”.

Más empatía que el médico

Además, la IA puede generar mensajes con mayor empatía que el médico, según algunas investigaciones citadas por el estudio, lo que puede ser útil para fomentar la vacunación o para todo lo contrario, ya que “puede amplificar los impulsores emocionales de la reticencia a vacunarse, especialmente la ira y el miedo, al generar mensajes emocionalmente estimulantes que son altamente contagiosos y tienen más probabilidades de ser creídos y difundidos”.

Artículos falsos con médicos y pacientes inventados

Este riesgo fue comprobado por investigadores australianos en un estudio publicado en JAMA en enero de 2024. En poco más de una hora generaron 102 artículos de blog distintos que contenían más de 17 000 palabras de desinformación relacionada con las vacunas y el vapeo. “Cada publicación era coercitiva y estaba dirigida a diversos grupos sociales, incluidos adultos jóvenes, padres jóvenes, personas mayores, personas embarazadas y personas con afecciones crónicas”. No sólo estaban dirigidos a cada público, sino que tenían apariencia de científicos: “Los blogs incluían testimonios falsos de pacientes y médicos y obedecieron las indicaciones para la inclusión de referencias de aspecto científico”. También crearon 20 imágenes realistas en menos de 2 minutos.  Por eso los autores proponen “medidas urgentes” de vigilancia de la IA.

Compromiso ético en IA

En este sentido, el decálogo ético sobre IA en salud promovido por el Instituto #SaludsinBulos y la Asociación de Innovadores en eSalud (AIES) recoge que “la IA debe ayudar a la alfabetización en salud y a la identificación y difusión de la información veraz en salud. Para ello deben ayudar a identificar las fuentes de la información y las referencias, tanto de texto como de imagen, y contrarrestar la desinformación con información veraz”. A este decálogo se han unido ya las tres sociedades científicas de medicina Atención Primaria (SEMERGEN, semFYC y SEMG), la Sociedad Española de Radiología Médica (SERAM) y la Federación de Asociación de Enfermería Comunitaria y Atención Primaria (FAECAP).

Ya en 2022, en un consenso previo sobre reticencia vacunal impulsado por el Instituto #SaludsinBulos con diferentes sociedades científicas y asociaciones de pacientes, en el que participaron los ministerios de Sanidad y de Ciencia e Innovación, se recogía que “la inteligencia artificial ayuda a detectar la desinformación. Los profesionales que luchan contra los bulos en vacunas pueden apoyarse en la inteligencia artificial para detectarlos y desmontarlos. Los algoritmos se están perfeccionando para llegar a reconocer publicaciones satíricas, reconocer perfiles falsos en redes y contribuir a minimizar las noticias falsas sobre vacunación”.

En este consenso participó Heidi Larsson por Vaccine Confidence Project y fue el origen de la iniciativa Confianza en la Vacunación, para promover la confianza en las vacunas, y en la que participan la Asociación Española de Vacunología (AEV), la Asociación de Enfermería y Vacunas (ANENVAC), el Consejo General de Farmacéuticos, el Consejo General de Enfermería, la Sociedad Española de Médicos Generales y de Familia (SEMG), la Escuela de Pacientes de Andalucía, el Foro de Pacientes y el Instituto ISGlobal.

Deja un comentario