Inteligencia artificial, la nueva cara de la desinformación electoral en Ecuador
![](https://www.swissinfo.ch/content/wp-content/uploads/sites/13/2025/02/7e94182a2b64a7e65539500b2be01f06-88836905.jpg?ver=aad566d6)
La desinformación aterrizó en la campaña presidencial de Ecuador con un inusitado ingrediente: el uso cada vez más sofisticado de la inteligencia artificial (IA), capaz de suplantar candidatos de manera casi imperceptible para enlodarlos.
La numerosa circulación de videos alterados y su increíble realismo son producto de una estrategia refinada, costosa y extraordinaria si se la compara con otros países de la región, coinciden expertos.
Capaz de imitar la voz y el movimiento de labios de un candidato o de tomar la forma de un conductor de televisión para incriminar a otro, la IA se ha usado en publicaciones manipuladas que golpean la imagen de los candidatos a la elección presidencial del domingo.
La izquierdista Luisa González y el presidente Daniel Noboa, favoritos en los sondeos, han sido blanco de estos mensajes compartidos miles de veces, constató el equipo de verificación digital de la AFP.
Días después de que Nicolás Maduro iniciara un tercer mandato consecutivo (2025-2031) en Venezuela, en redes sociales se difundió un video en el que González aparecía respaldando su investidura. «Un gran presidente», decía supuestamente.
Luego, cuando Donald Trump asumió en Estados Unidos, se viralizaron dos videos en los que se le veía acusando a Noboa y al emporio bananero de su familia de tener vínculos con el narcotráfico.
Pero ambas son declaraciones manipuladas.
«La IA juega un rol importante por su calidad, que en muchos casos es bastante realista», advirtió a la AFP Marco Benalcázar, quien dirige el Laboratorio de Investigación en Inteligencia y Visión Artificial «Alan Turing» de la Escuela Politécnica Nacional de Quito.
Esta tecnología permite clonar la voz de una persona y sincronizar el movimiento de sus labios, un tipo de manipulación conocida como «deep fake». El proceso podría tomar solo una hora, dice el docente, pero depende de la complejidad del montaje.
Los usuarios de redes, que poco a poco han aprendido a identificar fotomontajes, ahora se enfrentan a videos hiperrealistas «en un contexto de inmediatez, en el que no están acostumbrados o no tienen el tiempo de verificar todo», comentó Carlos Rodríguez Pérez, profesor de la facultad de Comunicación de la Universidad de La Sabana, en Colombia.
– Una estrategia estudiada –
Pero ¿qué hay detrás de estas campañas y cuál es su fin?
«Este tipo de contenidos muy bien hechos requieren pensar en una estrategia, ¿a qué político voy a seleccionar para manipular su voz?, ¿sobre qué temática? Esos asuntos no son aleatorios, sino que están bien pensados», anotó Rodríguez.
Según el experto, los contenidos apuntan a «deslegitimar al contrario», por ejemplo, vinculando a los candidatos con la criminalidad o con propuestas controversiales, como el caso de un video manipulado en el que González sugiere que el Estado financie «transiciones de género» en niños.
Poner en marcha este tipo de estrategias exige altas inversiones de dinero.
«De la misma manera que uno contrata una agencia de publicidad, se puede pagar a alguien para que genere contenido falso con algún propósito», anota Benalcázar.
Un mensaje falso contra González fue difundido junto a un sitio web cuidadosamente elaborado para imitar al de su partido. La grabación, editada con IA, mostraba a la candidata anunciando una «tarjeta» para acceder a «alimentos, salud y educación», similar al «carnet de la patria» de Venezuela.
Las «granjas» de producción de «deep fakes», como las llama Rodríguez, también suplantan a periodistas con gran precisión. En un supuesto informe de NTN24, una conductora informa que Noboa pagó un millón de dólares para asistir a la investidura de Trump. En otro, Fernando del Rincón, de CNN, aparece vinculando a González con la criminalidad.
– Uso responsable –
La preocupación por los alcances de esta tecnología motivó la presentación de tres proyectos de la Asamblea Nacional que buscan ponerle límites, aunque también fomentar su implementación responsable.
Los expertos como Rodríguez coinciden en que no se debe satanizar a la IA, que «puede ayudar a resolver muchos problemas».
«La tecnología en sí misma no es buena o mala, depende de su uso», matiza Benalcázar. «La desinformación es una de sus aplicaciones negativas», agrega.
En el debate presidencial del 19 de enero, la IA fue mencionada recurrentemente por los candidatos -aunque sin mayor detalle técnico- como una herramienta para implementar sus programas de gobierno.
«No hubo alguien que tenga una propuesta fuerte (…) se estaban enfocando en atacarse unos a otros. Lo que más me indignó, que se enfocaron en la IA» durante el debate, se quejó Christian Caldas, un diseñador de 32 años que compraba su almuerzo en el norte de Quito.
«La IA no puede gobernar un país, sino las personas (…) Fue súper indignante», añadió.
ag/afm/lv/sp/val