Tegucigalpa, Honduras.- Usuarios en redes sociales han compartido cientos de veces un video en el que se oye a la consejera presidente del Consejo Nacional Electoral (CNE), Cossette López, supuestamente hablar sobre el riesgo que está corriendo con la aprobación del sistema Transmisión de Resultados Electorales Preliminares (TREP).
Pero, en realidad, el audio de 25 segundos de duración tiene ciertas características que pueden sugerir que presenta alguna manipulación hecha con inteligencia artificial (IA).
Sin embargo, tampoco hay prueba contundente que confirme que se trata de la voz natural de López.
“Ustedes pueden ver que me estoy jugando mi reputación y mi carrera con esto del TREP. Y ninguno de ustedes sale a defenderme. Aquí estuvo esta gente chusma de Libre y nadie dijo nada. Ahí me pasa llamando Salvador todo histérico y todavía regañando. Ya le dije que no puedo hacer más porque después a quién van a fregar es a mí y nadie de ustedes va a meter las manos”, dice presuntamente la presidente del CNE en el audio “filtrado”.
Según las narrativas de los usuarios en redes sociales, la supuesta declaración de López fue grabada en una reunión en la que expresó sentirse molesta por las presiones que recibe por su cargo.
Además, la trascendencia del audio fue publicada presuntamente por el medio Radio Cadena Voces, pero el medio desmintió el contenido y aclaró que se trata de una suplantación a su línea gráfica.
EH Verifica explica lo que ha encontrado:
¿Hay manipulación?
En realidad, no existe un método infalible para determinar si una voz ha sido generada con inteligencia artificial. El análisis auditivo es fundamental para detectar patrones inusuales, pausas extrañas o voces robotizadas que sugieren manipulación de IA.
Los expertos concluyen que los audios creados con IA muestran monotonía y falta de emoción.
En este caso, el audio es muy uniforme y tiene una entonación muy superficial. Sin embargo, la herramienta Hiya, capaz de detectar IA en audios, arrojó un 87% de probabilidad de que sea auténtico.

Mientras que Elevenlabs, una herramienta que permite detectar si un audio fue manipulado, muestra apenas un 2% de probabilidad de haber sido generado con IA o con la misma herramienta.

Estas herramientas tienen limitaciones y no pueden considerarse una prueba contundente para validar la veracidad de un audio, ya que tiene falsos positivos y falsos negativos, como lo hemos explicado.
En ocasiones, este tipo de contenido puede generarse a partir de fragmentos de audio reales, y esto complica que las herramientas detecten indicios de manipulación.
También, al consultar con ChatGPT, una herramienta de inteligencia artificial, generó un análisis preliminar del contenido a partir de sus características técnicas.
Su conclusión indica que no es posible confirmar ni descartar con certeza si fue generado o manipulado con inteligencia artificial.
El audio no presenta cortes abruptos que suelen ser un factor común en contenido generado con IA, pero también se caracteriza por patrones suaves que carecen de “variabilidad natural del habla humana”.
En conclusión, aunque el audio atribuido a Cossette López presenta algunos indicios que podrían sugerir manipulación digital, no es posible confirmarlo de manera concluyente. Las herramientas utilizadas ofrecen resultados variables, por lo que no se puede afirmar con certeza su veracidad.