¿A qué países les fue mejor contra la desinformación política en 2024? Por Euronews
03.01.2025 16:14
Los expertos en desinformación afirman que muchos países fueron capaces de frenar una amplia cantidad de información falsa o engañosa mientras votantes de todo el mundo acudían a las urnas en el año 2024. Además, los contenidos generados por inteligencia artificial (IA) tuvieron un impacto menor de lo esperado.
Según el Instituto Internacional para la Democracia y la Asistencia Electoral (IDEA), más de 1.600 millones de personas votaron en más de 70 elecciones a lo largo del año, lo que convierte a 2024 en el mayor año electoral de la historia. Solamente en Europa se celebraron unas elecciones al Parlamento de la UE, además de numerosos comicios nacionales en Finlandia, Portugal, Francia, Reino Unido, Austria, Bélgica, Bulgaria, Georgia, Hungría, Islandia, Irlanda, Lituania, Moldavia, Eslovaquia y Rumanía… sin contar con la primera vuelta de unas elecciones presidenciales en Croacia.
Analizamos en qué medida los gobiernos de todo el mundo fueron capaces de contener la desinformación y qué impacto, si lo hubo, tuvo en los resultados:
La IA, un factor menos importante de lo esperado
En vísperas del mayor año electoral de la historia, los expertos en el campo de la desinformación estaban preocupados por el papel que desempeñaría la IA generativa en la propagación de la desinformación política.
Pero cuando la IA se utilizó en las campañas del año pasado, no fue de la forma que los expertos predijeron. Hubo menos ‘deepfakes’ creados para desinformar y, en cambio, más vídeos generados por IA que humillaban o encumbraban a los candidatos, afirman los expertos a ‘Euronews Next (LON:)’.
“La IA es una herramienta que surgió hace apenas un par de años… A medida que estas herramientas comiencen a desarrollarse, es posible que veamos cómo se difuminan esas fronteras [entre lo ficticio y lo real]”.
Giorgos Verdi
Experto en el ‘think tank’ del Consejo Europeo de Relaciones Exteriores
Hubo algunos ejemplos aislados de IA utilizada para crear ‘deepfakes’ con fines engañosos, como el audio generado por IA de un himno nacional en apoyo del ultraderechista Jordan Bardella (candidato del Frente Nacional), anuncios de vídeo falsos con el ex primer ministro del Reino Unido, Rishi Sunak, o imágenes generadas por IA de Taylor Swift y sus fans apoyando al presidente electo de Estados Unidos, Donald Trump, pero fueron rápidamente identificados y desmentidos.
La preocupación de los expertos era que los responsables políticos pudieran utilizar contenidos generados por IA más avanzados y difíciles de detectar que pudiesen engañar a los votantes. Esto no ha sido así según Giorgos Verdi, investigador político del Consejo Europeo de Relaciones Exteriores (ECFR), quién asegura que los problemas llegarán cuando las capacidades de la IA mejoren hasta el punto de no poder detectar las falsedades.
Licinia Güttel, del Oxford Internet Institute, advierte que no hace falta mirar al futuro: ya hay otros métodos de difusión de desinformación se utilizan con más frecuencia que la IA y son perfectamente eficaces, asegura la experta.
A mayor calidad democrática, mayor protección
Algunos países también cuentan con legislación para limitar la difusión de desinformación generada por IA. En la Unión Europea, algunas grandes empresas tecnológicas y de IA firmaron un Código de Prácticas sobre Desinformación (CoP) antes de las elecciones. Mediante este compromiso se comprometían a poner en marcha un sistema de respuesta rápida para identificar y detener la difusión de información falsa, según el Centro de Transparencia del Código sobre Desinformación de la UE.
En general, los países sin democracia o con democracias más recientes y frágiles registraron mayores índices de desinformación a lo largo del año electoral, según Güttel. Paolo Cesarini, director de programas del Observatorio Europeo de Medios Digitales (EDMO), afirma que existe todo un «ecosistema» de apoyo en democracias más consolidadas, como la UE, que ha tenido bastante éxito en la lucha contra la injerencia extranjera en forma de desinformación antes de las elecciones.
Las protecciones legislativas añadidas, como la Ley de Servicios Digitales (DSA) y la Ley de Mercados Digitales (DMA), obligaron a algunas grandes plataformas en línea, como TikTok, Instagram, Facebook (NASDAQ:) y otras, a realizar evaluaciones de riesgos sistémicos para evaluar cómo se propaga la desinformación en sus plataformas y encontrar formas de mitigarlos, explica Verdi.
La «resistencia» de Finlandia tras las sospechas de campaña híbrida
En enero de hace un año, los finlandeses acudieron a las urnas para elegir a su próximo presidente. Aunque la jornada electoral transcurrió bajo un clima de cordialidad, simpatizantes de los ultraderechistas del Partido de los Finlandeses denunciaron una operación de «influencia híbrida» en las redes sociales para desprestigiar a sus candidatos.
Sin embargo, las cuentas que hacían estas afirmaciones también intentaron desacreditar a Yle, la radiotelevisión pública del país, y compartieron contenidos islamófobos y xenófobos, según informó ‘Euronews’ en su momento.
Faktabaari, una ONG finlandesa de verificación de datos, también descubrió que un «efecto embudo» en YouTube dirigió a muchos votantes finlandeses hacia vídeos de la extrema derecha durante la campaña electoral que «potencialmente influyeron en sus perspectivas».
Paula Gori, secretaria general del European Digital Media Observatory, afirma que el país es conocido por su resistencia contra la desinformación porque el Gobierno puso en marcha una sólida iniciativa contra las noticias falsas en los institutos ya en 2014. El país nórdico también encabeza regularmente las listas de alfabetización mediática.
Así pues, Gori cree que los sistemas que Finlandia tiene en marcha la convierten en una sociedad «resistente» a la desinformación y son un buen ejemplo de lo que funcionó bien en el ciclo electoral de este año.
Rumanía: el caso Călin Georgescu y la guerra híbrida de Rusia
En las recientes elecciones rumanas ganó inesperadamente en primera vuelta Călin Georgescu, una figura populista -y hasta entonces marginal- de la política del país. Las elecciones fueron anuladas a raíz de los informes de los servicios de inteligencia sobre una agresiva intromisión de Moscú a través de una campaña de propaganda antioccidental, principalmente en TikTok, para cambiar el resultado de los comicios. Moscú mantiene que no se inmiscuyó en las elecciones.
“Lo que hizo Georgescu es exactamente replicar lo que los rusos… [han] estado haciendo durante años al crear cuentas falsas y comprar interacciones falsas”.
Paolo Cesarini
Director en el European Digital Media Observatory (EDMO)
Cesarini, de EDMO, dice que lo que está ocurriendo en Rumanía es la confirmación de que presionar legislativamente a las tecnológicas es la jugada correcta, dado el auge de la desinformación procedente de esas plataformas.
Pero según Güttel, del Oxford Internet Institute, es demasiado pronto para saber si lo ocurrido en Rumanía es algo que podría suceder en otros lugares. Para ella, el país ya era vulnerable a este tipo de resultados por sus bajos niveles de alfabetización mediática y su profunda desconfianza en los medios tradicionales.
En 2022, Rumanía ocupaba el penúltimo lugar de la UE en alfabetización mediática y el 29º de 38 en confianza en los medios tradicionales, según la organización sin ánimo de lucro EU Disinfo Lab.
2025: otro año con numerosas contiendas políticas en Europa
El próximo año será otro gran año electoral: se han convocado comicios nacionales en Alemania, Bielorrusia, Albania, Kosovo, Noruega, Polonia, República Checa y un segundo intento en Rumanía tras las presidenciales canceladas.
Según Cesarini, la desinformación nacional da problemas más allá de un ciclo electoral, por lo que es necesario recordar la estrategia a largo plazo de los actores que la crean. «Es una lección para no bajar la guardia ahora, sino para movernos con más fuerza y energía para detectar estas campañas a tiempo», dice.