La inteligencia artificial entra en campaña: ¿estamos preparados para enfrentar la desinformación?
Hace unos días, una persona me envió un video de un crucero enfrentando olas gigantescas en medio de una tormenta. El mensaje que acompañaba el elemento decía: “Me muero”. Claramente lo compartió sorprendida por lo que había visto. Sin embargo, para un ojo más acostumbrado al ritmo con el que avanza la tecnología, era evidente que se trataba de una animación generada con inteligencia artificial. Ella no lo sabía. Y probablemente muchas personas tampoco lo notarían.
Esa escena tan cotidiana me llevó a una reflexión urgente: estamos por entrar a una campaña electoral en la que la inteligencia artificial será un jugador silencioso, pero decisivo. Ya no se trata solo de encuestas, debates o spots publicitarios. Esta vez, los contenidos generados por IA (videos, audios, imágenes y textos diseñados para desinformar o manipular) pueden circular de manera masiva sin que muchas personas cuenten con las herramientas para identificar si es que esos mensajes son falsos. Y eso pone en riesgo no solo la calidad del debate, sino también la integridad del proceso democrático.
Hoy, es posible fabricar discursos, audios y videos completamente falsos, pero creíbles y viralizables en cuestión de minutos. Y eso cambia las reglas del juego. Los contenidos creados podrán modificar percepciones, manipular emociones y, sobre todo, condicionar decisiones. En esta campaña, la batalla por la verdad será tan importante como la batalla por el voto.
Estas son las acciones más comunes que podrían utilizarse para difundir desinformación, y sobre las cuales deberíamos diseñar bloques de defensa en favor de la democracia:
- Desacreditación de grupos políticos y/o candidatos con videos o audios manipulados.
- Difusión de noticias falsas que apelen al miedo, la ira o la desconfianza hacia un grupo político y/o un candidato.
Esto ya está ocurriendo en otras partes del mundo. La tecnología avanza, pero la capacidad de muchas personas para identificar cuándo están siendo engañadas no avanza al mismo ritmo.
¿Quiénes son más vulnerables?
Los sectores más expuestos a este tipo de desinformación son aquellos con menos herramientas para contrastar lo que reciben:
- Personas con menor nivel educativo o limitado acceso a fuentes confiables.
- Personas con escaso conocimiento digital, en especial adultos mayores.
Esto no los hace menos inteligentes ni menos responsables. Simplemente, no han tenido acceso a los filtros necesarios para enfrentar este tipo de engaños.
¿Qué podemos hacer?
Este no es un llamado al miedo, sino a la acción. La inteligencia artificial es una herramienta poderosa, y como toda herramienta, depende del uso que se le brinde.
Frente a su uso malintencionado en procesos democráticos, se requiere una respuesta colectiva:
- Desde el Estado, regulaciones claras sobre el uso de IA en la comunicación política.
- Desde el sector privado, formación interna y apoyo a iniciativas educativas.
- Desde la academia, investigaciones y contenidos accesibles que expliquen estos riesgos.
- Desde los medios y la sociedad civil, difusión de herramientas para detectar contenido falso y promover el pensamiento crítico.
- Desde cada uno de nosotros, mayor responsabilidad sobre lo que consumimos y compartimos.
La mentira perfecta
La inteligencia artificial no es, por sí sola, una amenaza. El problema es su uso para fabricar mentiras perfectas: aquellas que se ven, suenan y se sienten como verdad. Y que pueden llegar a millones de personas antes de que alguien las cuestione.
La defensa de la democracia hoy no solo se juega en las urnas, sino también en el terreno de la información. Estemos atentos. Y sobre todo, estemos preparados.