Llamada falsa

En claves:

  • El audio publicado tiene como fuente una cuenta de X dedicada a promocionar contenido a favor del gobierno de Nicolás Maduro.
  • Cuentas conocidas por difundir desinformación reprodujeron rápidamente la información, superando el millón de reproducciones en conjunto.
  • Un análisis con la herramienta de inteligencia artificial VerificAudio determinó que las voces no corresponden con los políticos y que fue creada artificialmente

El 17 de mayo de 2024 circuló por Whatsapp, cuentas de X e Instagram una presunta “llamada telefónica filtrada” entre Juan Guaidó y Edmundo González, en la que se hablaba de una estrategia electoral para conseguir recursos financieros bipartidistas en Estados Unidos para la campaña electoral de las elecciones presidenciales del 28 de julio.

Una revisión de Cocuyo Chequea por medio de la herramienta de inteligencia artificial del Grupo Prisa Media llamada VerificAudio, que mediante técnicas de machine learning permite comparar e identificar voces para saber si la voz le pertenece a la persona a la que se le atribuye y si fue producida de forma sintética o no.

¿Qué dice el audio?

Según el video que circula, González asegura no estar en condiciones físicas para acudir a eventos públicos mientras que Guaidó lo presionaba sobre la necesidad de darle más visibilidad a petición de los políticos estadounidenses. 

La cuenta del periodista de Venezolana de Televisión, Michel Caballero, fue la que impulsó esta narrativa el 17 de mayo de 2024, a partir de las 10:27 de la mañana, a pesar que sólo publicó el audiovisual con el título “Verga 😳” sin detalles sobre la fuente u origen del mismo.

Sin embargo, el video fue publicado por primera vez dos minutos antes, en respuesta a una publicación de Caballero. En el video de la cuenta Guillermo Gimón, dedicada a difundir contenidos a favor del gobierno de Nicolás Maduro, se puede ver que lo tomó de la cuenta de Tik Tok llamada pollofritonews, que contiene una variada mezcla de contenido político y de entretenimiento. 

Esta diferencia es notoria. Mientras en la cuenta original obtuvo 65 reproducciones, para el 22 de mayo de 2024, a las 4 de la tarde de Caracas, la de Caballero ascendía a 9.598 reproducciones.

Rápidamente viral

Unas tres horas después, el video fue republicado en la cuenta de El Universal, alcanzando 76 mil 400 reproducciones para el 22 de mayo a las 5 de la tarde de Caracas.

Cocuyo Chequea también rastreó que durante el mismo día fue publicada en la cuenta de Instagram de Globovisión, en la que acumulaba 855 mil reproducciones, así como otras de Instagram de menor alcance como El Expresivo, Potencia En La Web y DiarioDlPueblo.

En X el video fue reproducido por cuentas como Yvonne Yépez Díaz, con una imagen de Hugo Chávez en su avatar y contenido a favor del gobierno de Nicolás Maduro, con 6.646 reproducciones y por IdeaDatos, que Cocuyo Chequea ha verificado como inconsistente en la presentación de su única encuesta en cuatro años.

Pero el audio también fue republicado por la cuenta del V/A retirado Mario Iván Carratú Molina, atribuyéndole veracidad al presentar críticas contra Guaidó y González, alcanzando 37.200 reproducciones más. Carratú Molina fue acusado en enero de 2024 por el Ministerio Público de ser parte de la trama de conspiración que fue bautizada como Brazalete Blanco.

VerificAudio

VerificAudio es “una herramienta pionera al servicio de sus periodistas para la detección de audios falsos o deepfakes generados con voces sintéticas o alteradas con tecnología. La nueva solución, desarrollada en colaboración con Google News Initiative y Minsait, está ya disponible en las redacciones de las emisoras de PRISA Media de Colombia, México, Chile y España” dice una nota de prensa del Grupo PRISA cuando la presentó en marzo de 2024.

La herramienta hace un verificación a través de dos pasos: la identificación y la comparación. Por lo que VerificAudio puede reconocer audios potencialmente manipulados o sintéticos por medio de su “modo identificador”, basado en machine learning, y el “modo comparador” para detectar si la voz es clonada o real.

Cómo funciona la tecnología

Olalla Novoa, periodista y gerente de productos de PRISA Media, responsable por el área de Voice and Smart Speakers explicó los detalles técnicos de cómo fue desarrollada la herramienta y cómo se entrenó, en este artículo del Reuters Institute

Desde su nacimiento como idea de los periodistas de Caracol Radio Colombia, hasta su desarrollo por la compañía tecnológica español Minsait, la cual usó distintas técnicas de inteligencia artificial.

Primero se usó procesamiento de lenguaje natural (similar al usado por ChatGTP y Bard) y aprendizaje profundo (deep learning) para evaluar manipulaciones de audio, luego normalizar y limpiar los archivos, para entonces evaluar el algoritmo y finalmente, usar redes neuronales y aprendizaje de máquina (machine learning).

Los ingenieros desarrollaron parámetros para evaluar cada audio, según peculiaridades únicas de la voz como el tono, la entonación y los patrones del habla. Así la herramienta puede comparar el audio con uno real de la misma persona e identificar si es la misma voz, y si es así, si es real o producida sintéticamente.

Doble chequeo y pruebas

Para pulir los resultados, sabiendo que lo más difícil en Inteligencia Artificial es la trazabilidad y la explicabilidad, porque suelen ser cajas negras que sólo dan resultados, VerificAudio mantiene su doble chequeo con métodos distintos de Inteligencia Artificial, que además señalan cuánto de cada parámetro llevó al resultado final. Como puede verse en la siguiente imagen, un coeficiente f(x) menor a 0,35 indica que se trata realmente de una voz real.

Para evitar falsos positivos, la herramienta se entrenó con archivos de entrevistas radiales del Grupo Prisa y voces nuevas de sus locutores, se probaron los resultados mecánica y manualmente, con asesoría de expertos humanos y varias tecnologías para producir audios sintéticos.

VerificAudio sigue agregando distintos acentos de hispanohablantes del mundo, nuevas herramientas para falsificar audios e incluso otros idiomas como gallego y catalán, mientras planean que en su página web puedan publicar los análisis, que mezclan esta herramienta con verificación periodística, de sus distintas salas de redacción.

A petición de Cocuyo

VerificAudio ya es usada por los periodistas en las emisoras de Colombia, México, Chile y España del Grupo Prisa, pero también reciben audios de usuarios o de otros medios a través de su página web.

Al respecto, en respuesta a una petición de Cocuyo Chequea por medio de la web VerificAudio, que permite enviar un correo electrónico con el audio descargado, la fuente del mismo, así como nombres, cargos y país de quienes se desea verificar, se recibió la siguiente respuesta de parte de Miller Suárez Amaya, productor tecnológico de podcast de Caracol Radio, parte del grupo Prisa Media.

Edmundo González Urrutia

  • Comparación con voz real 1: “Diferentes interlocutores”
  • Comparación con voz real 2: “Diferentes interlocutores”
  • El coeficiente F(x) del modo identificador es de: 0.52

Juan Guaidó

  • Comparación con voz real 1: “Diferentes interlocutores”
  • Comparación con voz real 2: “Diferentes interlocutores”
  • El coeficiente F(x) del modo identificador es de: 0.56

Considerando que para la herramienta, una voz real se encuentra en valores inferiores a 0.35, se determina que ambas voces no corresponden a González Urrutia ni Guaidó y fueron producidas de forma sintética o por manipulación digital.

Manipulación digital ya detectada

A un resultado similar llegaron los colegas de Cazadores de Fake News, quienes encontraron que había muchas señales de manipulación del audio de la falsa llamada entre Guaidó y González.

En su artículo CFN señalan que “Al ralentizar el audio al 75% de su velocidad original y realizar un análisis espectral, se pudo constatar que para generar el registro se usó un software de edición de audio y hay indicios de que se organizaron distintos segmentos de voz en varios canales, para simular una conversación real. En algunos instantes se pudieron percibir claros rastros de la edición que se hizo”, como silencios abruptos y ritmos irregulares en la conversación.

Así mismo, dan ejemplos de lo fácil que es usar herramientas básicas y gratuitas de Inteligencia Artificial para imitar voces como en los casos de Verónica Gómez, además que consultaron a los equipos de ambos políticos, quienes desmintieron la llamada, cuyo contenido coincide con anteriores narrativas desinformativas identificadas como el financiamiento de parte del gobierno de Estados Unidos.

Veredicto

Considerando el resultado de la herramienta de inteligencia artificial VerificAudio, así como la forma de distribución del contenido y su origen, junto al análisis digital forense de parte de Cazadores de Fake News, calificamos este audio como falso en Cocuyo Chequea, de acuerdo a nuestra metodología. No hubo tal llamada telefónica y tampoco fue «filtrada».

</div>