Transformación Digital

DF Lab Opinión/ IA para el bien y para el mal: ¿cómo identificar y combatir las deepfakes?

"Para lidiar con los riesgos y conocer la autenticidad real de estos contenidos, son esenciales algunos cuidados, tanto con la imagen como con la voz".

Por: Por Leidivino Natal da Silva es CEO de Stefanini Cyber, empresa de Stefanini | Publicado: Lunes 9 de septiembre de 2024 a las 09:06 hrs.
  • T+
  • T-
Por Leidivino Natal da Silva es CEO de Stefanini Cyber, empresa de Stefanini
Por Leidivino Natal da Silva es CEO de Stefanini Cyber, empresa de Stefanini

Compartir

Verificar la fuente de la información es la mayor recomendación para lidiar con las deepfakes. Los contenidos generados por IA evolucionan a la velocidad de la tecnología y aún estamos aprendiendo cómo se crean y se difunden. El realismo asociado a su mal uso puede generar serias consecuencias y daños irreversibles, por lo que personas y empresas buscan medidas para protegerse y minimizar los daños del intercambio de imágenes falsas.

Según un estudio inédito de DeepMind, la unidad de IA de Google, las deepfakes representan el 27% de los casos de uso criminal de la IA, superando a los ataques cibernéticos. Para identificar el uso criminal de la inteligencia artificial, algunas recomendaciones son fundamentales para entender y comprender cómo personas o grupos utilizan este recurso para cometer fraudes de diversos tipos. ¿Cómo saber si una noticia es falsa, o un perfil es falso, o una voz es falsa? Lo importante es verificar quién es el dueño de la información y siempre consultar la fuente. Al igual que las fake news, también muy presentes en esta era digital, las deepfakes son una amenaza en todo el mundo, con cifras que crecen exponencialmente.

Para lidiar con los riesgos y conocer la autenticidad real de estos contenidos, son esenciales algunos cuidados, tanto con la imagen como con la voz. Una sugerencia es, a la hora de tomar una foto, evitar hacerla de frente y tomarla de lado. En cuanto a la recreación de voces, es importante tener cuidado con la forma de hablar y utilizar siempre un lenguaje más formal, no tan coloquial, pues contribuye a minimizar este problema.

La aplicación de mensajería es uno de los canales favoritos para intentar fraudes. Es posible protegerse con algunas recomendaciones frente a esta práctica, que se ha vuelto común en los últimos años. Por ejemplo, la solicitud de dinero por un audio o una voz grabada provendrá de un celular que no está registrado en la agenda de contactos. Un consejo es orientar a los familiares para que llamen y se aseguren de que se trata de un acto criminal.

Otra cosa importante es cómo estas tecnologías pueden avanzar de manera segura. Hoy en día, de la misma manera que tenemos IA para crear deepfakes, tenemos IA para verificar si ese material fue creado por inteligencia artificial y, eventualmente, manipulado, recreado o utilizado indebidamente. Podemos comprobar tecnología contra tecnología, IA contra IA, para realizar esta verificación y evaluar su veracidad. Las posibilidades son infinitas, y la regulación y el uso ético son movilizaciones que ya estamos viendo en algunas partes del mundo. El hecho es que la tecnología fue creada para facilitar y agilizar, y no para desarrollar una deepfake.

Es un tema muy nuevo, todo es muy incipiente y todos estamos aprendiendo. Aunque hay muchos esfuerzos por parte de las plataformas de redes sociales para alertar o eliminar este tipo de contenido, distinguir lo que es verdadero y lo que es falso sigue siendo un desafío. Es una tecnología que cambia a una velocidad vertiginosa; usarla conscientemente puede minimizar los riesgos que su mal uso es capaz de provocar.

De la misma manera que la IA llegó para facilitar el día a día de las personas y las corporaciones, generar más eficiencia y productividad, la tecnología también puede ser utilizada de manera indebida, impulsando la sofisticación de las estafas y la generación de contenido sin consentimiento. El escenario es desafiante y, ciertamente, tendremos que adaptarnos a este nuevo momento de la tecnología para que la IA no se convierta en enemiga de la propia IA.

Lo más leído