Columnistas

El peligro de los deepfakes no es lo que piensas

business LIFE John Thornhill

Por: John Thornhill | Publicado: Lunes 24 de junio de 2024 a las 04:00 hrs.
  • T+
  • T-

Compartir

John Thornhill

Uno de nuestros pánicos morales más ruidosos en estos días es el temor de que los deepfakes generados por Inteligencia Artificial (IA) degraden la democracia. La mitad de la población mundial votará este año en 70 países. Unos 1.500 expertos encuestados por el Foro Económico Mundial, a fines de 2023, estimaron que la desinformación y la información errónea son el riesgo global más grave para los próximos dos años. Incluso, los riesgos climáticos extremos y los conflictos armados interestatales se consideraron menos amenazantes.

Pero, dicho suavemente, sus preocupaciones parecen exageradas. No es la primera vez que el consenso de Davos podría estar equivocado.

En lugar de causar daño político, el contenido generado por IA puede ser útil en las campañas electorales. La India acaba de dar el ejemplo.

El engaño ha sido una característica de la naturaleza humana desde que los griegos arrojaron un caballo de madera fuera de los muros de Troya. Más recientemente, la publicación en el Daily Mail de la carta de Zinoviev -un documento falso supuestamente del jefe soviético de la Comintern- tuvo un gran impacto en las elecciones generales británicas de 1924.

Por supuesto, eso fue antes de la era de Internet. La preocupación ahora es que el poder de la IA pueda industrializar este tipo de desinformación. La inteligencia artificial generativa está reduciendo a cero el costo de la generación de contenidos. El resultado puede ser un volumen abrumador de información que, como dijo memorablemente el estratega político estadounidense Steve Bannon, puede “inundar la zona de mierda”.

Los deepfakes -imitaciones realistas de audio, imágenes o videos generadas por IA- representan una amenaza particular. Los últimos avatares creados por las principales empresas de inteligencia artificial son tan buenos que prácticamente no se distinguen de los reales.

En un mundo así, de “personas falsificadas” como las llamó el difunto filósofo Daniel Dennett , ¿en quién se puede confiar en línea? El peligro no es tanto que los votantes confíen en quienes no son dignos de confianza, sino que desconfíen de los que sí lo son.

Sin embargo, al menos hasta ahora, los deepfakes no están causando tanto daño político como se temía. Algunas startups de IA generativa argumentan que el problema es más de distribución que de generación, pasando la responsabilidad a las empresas de plataformas gigantes. En la Conferencia de Seguridad de Munich de febrero pasado, 20 de esas grandes empresas tecnológicas, incluidas Google, Meta y TikTok, se comprometieron a reprimir los deepfakes diseñados para engañar. Hasta qué punto las empresas están cumpliendo sus promesas es todavía difícil de decir, pero la relativa falta de escándalos es alentadora.

El movimiento de inteligencia de código abierto, que incluye legiones de detectives cibernéticos, también ha sido eficaz para desacreditar la desinformación. Académicos estadounidenses han creado una base de datos de incidentes políticos deepfakes para rastrear y exponer el fenómeno, registrando 114 casos hasta enero de este año. Y bien podría ser que el uso cada vez mayor de herramientas de inteligencia artificial por parte de millones de usuarios esté profundizando la comprensión pública de la tecnología, inmunizando a las personas contra los deepfakes.

La India, experta en tecnología y que acaba de celebrar la mayor elección democrática del mundo, con 642 millones de votantes, fue un caso de prueba interesante. Hubo un uso extensivo de herramientas de inteligencia artificial para suplantar a candidatos y celebridades, generar respaldo de políticos fallecidos y arrojar lodo a los oponentes en la vorágine política de la democracia india. Sin embargo, las elecciones no parecieron desfiguradas por la manipulación digital.

Dos expertos de la Escuela Kennedy de Harvard, Vandinika Shukla y Bruce Schneier, que estudiaron el uso de la IA en la campaña, concluyeron que la tecnología se utilizó principalmente de forma constructiva.

Por ejemplo, algunos políticos usaron la plataforma oficial Bhashini y aplicaciones de inteligencia artificial para doblar sus discursos a los 22 idiomas oficiales de la India, profundizando las conexiones con los votantes. “La capacidad de la tecnología para producir deepfakes no consensuados de cualquier persona puede hacer más difícil distinguir la verdad de la ficción, pero es probable que sus usos consensuales hagan que la democracia sea más accesible”, escribieron.

Esto no significa que el uso de deepfakes sea siempre benigno. Ya se han utilizado para causar daños criminales y perjuicios personales. A principios de este año, la empresa de ingeniería británica Arup fue timada con US$ 25 millones en Hong Kong después de que unos estafadores utilizaran un video clonado digitalmente de un alto directivo para ordenar una transferencia financiera. Y este mes circularon en línea imágenes explícitas de deepfake de 50 niñas de la escuela secundaria Bacchus Marsh en Australia. Al parecer, las fotos fueron tomadas de publicaciones en redes sociales y manipuladas para crear las imágenes.

Los delincuentes suelen ser de los primeros en adoptar las nuevas tecnologías. Lo que más debería preocuparnos es el siniestro uso que hacen de los deepfakes para atacar a particulares. Los usos públicos de la tecnología con fines nefastos tienen más probabilidades de ser rápidamente expuestos y contrarrestados. Deberían preocuparnos más los políticos que dicen tonterías que los avatares de IA falsos que generan sandeces inauténticas.

Lo más leído