La inteligencia artificial ya no es un riesgo lejano; está remodelando activamente el panorama de la información política. Un nuevo informe de Kroll, la firma global de inteligencia de riesgos, documenta cómo las herramientas de IA generativa están acelerando la producción y difusión de desinformación política, al tiempo que dificultan la rendición de cuentas de los malos actores.
El beneficio estratégico obtenido por los malos actores a partir del escepticismo generalizado sobre el contenido auténtico. Cuando proliferan los deepfakes y la desinformación generada por IA, las pruebas genuinas —grabaciones reales, declaraciones reales— pueden ser descartadas como fabricadas. La rendición de cuentas se erosiona no porque la verdad esté oculta, sino porque ya no se puede confiar en ella.
Cómo la IA Generativa está Remodelando la Desinformación Política
El informe de Kroll identifica la IA generativa como un multiplicador de fuerza para las campañas de desinformación. Lo que antes requería una considerable experiencia técnica —fabricar un clip de audio convincente, producir un vídeo realista de una figura pública, generar miles de publicaciones plausibles en redes sociales— ahora puede ser logrado por un solo operador con un portátil de consumo y una conexión a internet.
La escala y velocidad que permite la IA significan que la desinformación puede saturar un ciclo de noticias antes de que los verificadores de hechos tengan tiempo de responder. Peor aún, la calidad visual y de audio del contenido generado por IA ha mejorado drásticamente en los últimos dos años, lo que dificulta cada vez más su detección tanto para los sistemas de moderación de plataformas como para los usuarios comunes.
El Dividendo del Mentiroso: Un Arma contra la Rendición de Cuentas
Quizás el hallazgo más insidioso del informe de Kroll no se trata de la fabricación, sino de la duda. Incluso cuando existen grabaciones genuinas de políticos, ejecutivos o funcionarios públicos, la proliferación de deepfakes ofrece a los malos actores una nueva línea de defensa: simplemente afirmar que el contenido auténtico es generado por IA.
Esta estrategia —el dividendo del mentiroso— explota la creciente incertidumbre del público sobre lo que es real. Una grabación filtrada de una mala práctica genuina puede ser descartada como un deepfake. Un vídeo verificado de un cambio de política puede ser etiquetado como sintético. El resultado es un entorno asimétrico donde la desinformación se beneficia no solo de la difusión de falsedades, sino también de socavar la confianza en la verdad misma.
El mayor riesgo no es que la IA cree falsificaciones convincentes, sino que haga que lo real parezca falso. Una vez que el público ya no pueda distinguir entre ambos, la rendición de cuentas se derrumba.
— Informe de Inteligencia de Riesgos de Kroll, 2024
Ejemplos de Desinformación por IA Generativa en Elecciones
El informe documenta una serie de incidentes registrados de los ciclos electorales de 2023-2024 en los que el contenido generado por IA desempeñó un papel material en la configuración del discurso público:
Audio fabricado
Grabaciones de voz de candidatos clonadas por IA, haciendo declaraciones incendiarias, circularon en plataformas de mensajería días antes de la apertura de las urnas, sin tiempo suficiente para refutaciones creíbles.
Imágenes sintéticas
Imágenes fotorrealistas que mostraban a candidatos en situaciones comprometedoras fueron generadas y compartidas en redes sociales, explotando los retrasos en la moderación de contenido de las plataformas.
Propaganda automatizada
Cuentas impulsadas por LLM generaron grandes volúmenes de mensajes políticos dirigidos, ajustando el encuadre según los datos demográficos del usuario para maximizar el impacto emocional.
Negación de contenido auténtico
Grabaciones reales de declaraciones públicas fueron falsamente etiquetadas como generadas por IA por los propios sujetos, impidiendo la rendición de cuentas por posiciones y acciones documentadas.
Planificando el Futuro
Las recomendaciones de Kroll se centran en tres niveles de respuesta: técnico, regulatorio e institucional. En el ámbito técnico, el informe pide una mayor inversión en tecnologías de procedencia —autenticación criptográfica de contenido que pueda establecer una cadena de custodia para grabaciones e imágenes genuinas. En el ámbito regulatorio, insta a una adopción más rápida de los requisitos de etiquetado de IA, particularmente durante los períodos electorales, y a una mayor responsabilidad para las plataformas que amplifican contenido político generado por IA no verificado.
La dimensión institucional puede ser la más difícil de abordar. Reconstruir la confianza pública en la evidencia auténtica requiere un esfuerzo sostenido por parte de las organizaciones de medios, los grupos de la sociedad civil y los propios actores políticos. El informe de Kroll concluye que la inacción no es una opción neutral: a medida que avanzan las capacidades de la IA, la ventana para establecer normas sólidas y salvaguardias técnicas se está reduciendo.
Para los profesionales de políticas de la UE, las implicaciones son directas. Las obligaciones de la Ley de IA en torno a la transparencia y el etiquetado de medios sintéticos son un punto de partida, pero los hallazgos del informe sugieren que los plazos de implementación podrían necesitar acelerarse para seguir el ritmo de las realidades de despliegue sobre el terreno.
Kroll es un proveedor global de soluciones de riesgo y asesoramiento financiero. Su informe de 2024 sobre IA y desinformación política se basa en estudios de caso de monitoreo electoral en cuatro continentes, entrevistas con especialistas en seguridad de campañas y análisis de operaciones de influencia documentadas generadas por IA durante los 18 meses anteriores.
Análisis relacionado