Un estudio publicado en BMJ ha demostrado el aumento de videos deepfake donde figuras médicas populares han sido manipuladas por ordenador para promocionar productos fraudulentos. Estos deepfakes, creados mediante IA, simulan entrevistas o apariciones para vender curas milagrosas, lo que ha generado preocupación entre médicos y autoridades. El uso de la tecnología deepfake ha implosionado en 2024 y está explotando la confianza emocional de los usuarios y es difícil de regular. Entre las conclusiones del artículo destacan:
- Prevalencia creciente de deepfakes médicos: Médicos conocidos por los británicos han sido utilizados en videos deepfake para vender productos fraudulentos, lo que confunde y estafa a los usuarios.
- Tecnología difícil de regular: Aunque plataformas como Facebook y YouTube aseguran trabajar para eliminar estos contenidos, la velocidad con la que los deepfakes se generan y distribuyen dificulta su control. Empresas como Meta prometen mejoras, pero los resultados son limitados.
- Explotación emocional: Los deepfakes usan la imagen de figuras de confianza para crear un vínculo emocional con el público, lo que incrementa las probabilidades de que las estafas sean efectivas.
- Inacción de reguladores médicos: Organismos como el Consejo Médico General del Reino Unido consideran que estos casos están fuera de su competencia, ya que los videos no son creados por los propios médicos.
- Responsabilidad de las plataformas: La solución, según los expertos, está en que las plataformas como Meta y YouTube asuman una mayor responsabilidad para prevenir la difusión de este tipo de contenido y protejan a los usuarios de las estafas.
La conclusión es que mientras las tecnologías de deepfake sigan evolucionando y democratizándose, las estafas que utilizan la imagen de médicos seguirán proliferando, lo que exige una mayor regulación de las plataformas digitales y una mayor concienciación pública para identificar estas técnicas fraudulentas. Al presentar a médicos conocidos respaldando productos fraudulentos, como curas milagrosas para la presión arterial o la diabetes, inducen a los usuarios a gastar dinero en tratamientos que no solo son ineficaces, sino potencialmente peligrosos.
Además, al estar creados mediante tecnología de inteligencia artificial avanzada, estos videos son difíciles de identificar como falsos, ya que replican con gran precisión la voz, imagen y gestos de los médicos. Esto genera un falso sentido de seguridad entre los espectadores, que pueden seguir consejos erróneos y abandonar tratamientos legítimos.
El problema se agrava porque las plataformas donde se difunden, como Facebook, YouTube y TikTok, no pueden controlar eficazmente la proliferación de estos contenidos. La rapidez con la que se crean y comparten los videos supera la capacidad de las plataformas para moderar y eliminar material falso, lo que incrementa la desinformación médica y los riesgos para la salud pública. Estos deepfakes subrayan la necesidad de mayor regulación y concienciación para proteger a los usuarios.
El autor del estudio da unas recomendaciones sobre cómo podemos protegernos:
Qué hacer si encuentras un deepfake
-
En primer lugar, mire detenidamente el video o la imagen, o escuche el audio, para asegurarse de que sus sospechas estén bien fundadas. En una era post-IA, todos nos hemos vuelto más escépticos y puede haber un riesgo de convertirnos en «el niño que gritó lobo»
-
Intenta ponerte en contacto con la persona que respalda el producto si no eres el sujeto del video, y comprueba si el video, la imagen o el audio son legítimos. Hazlo utilizando un método alejado de donde encuentres el video: es posible que la cuenta de redes sociales con el contenido cuestionable también esté controlada por un estafador
-
Deja un comentario sobre el contenido cuestionando su veracidad. Es posible que no seas la única persona con preocupaciones y hacerle saber a la gente que crees que no todo está bien puede ayudar a disuadir a otros de desprenderse de su dinero
-
Utilice las herramientas de informes integradas en la plataforma. A menudo los encontrará junto a la publicación, generalmente ocultos detrás de tres puntos que con frecuencia se encuentran en la esquina superior derecha de la publicación. Es posible que se le pida que comparta más información sobre sus inquietudes y el informe se enviará a través de un sistema automatizado. Si las plataformas también creen que es falso, lo eliminarán
-
Denuncia también a la persona o cuenta que compartió la publicación. Eliminar una sola publicación puede no ser suficiente y, a veces, los sistemas de redes sociales no son lo suficientemente inteligentes como para reconocer a los infractores reincidentes
-
Incluso si no eres el sujeto de un deepfake, debes tener en cuenta que los pacientes pueden acudir a ti después de haber visto videos deepfake. Es posible que quieran ciertos tratamientos que los deepfakes han recomendado. Debes tratar de hacerles saber que los deepfakes existen y que deben seguir los consejos médicos estándar en lugar de lo que han visto en las redes sociales