DF Lab Opinión/ Contra la desinformación, pausa
La IA podría moldear nuestras decisiones y comportamientos mediante procesos opacos, atrapándonos en silos que refuercen nuestras creencias y distorsionen nuestra percepción de la realidad.
- T+
- T-
La elección de Donal Trump cierra el año con más procesos electorales que se recuerde. Más del 50% de la población ha votado en elecciones en 70 países tan relevantes como Rusia, India, Francia, Reino Unido, EEUU, México e indonesia (el 4º país más poblado del mundo). Esta avalancha electoral ha estado acompañada de denuncias de informaciones virales falsas sobre las cuales hasta el Director de Inteligencia norteamericano ha debido salir a desmentir.
El Informe Digital News Report 2024 del Instituto Reuters destaca que las personas que evitan activamente consumir noticias alcanza niveles récord. El video es la fuente principal de noticias online, especialmente para los jóvenes, con un 72% del consumo de noticias en video en las plataformas (72%) y no en los sitios web de los medios (22%). Agrega que cada vez más, las personas prefieren como fuentes a comentaristas partidistas, influencers y jóvenes creadores, especialmente en YouTube y TikTok. Sin embargo, más de la mitad de los usuarios de redes sociales (56%) dudan sobre su propia capacidad de discernir lo verdadero de lo falso.
Un estudio de Remitly del 2023 recopiló las búsquedas en Google que empezaban con “como ser un” y terminaban en una profesión. Se analizaron 200 países. En Latam, las profesiones preferidas se relacionaban a actividades con redes sociales como YouTuber (ej. Chile, México, Perú y Bolivia) o Influencer (ej. Argentina, Panamá y Ecuador).
La capacidad tecnológica para manipular la realidad hoy en día no tiene precedentes, desde la autenticidad de una imagen hasta la redacción de textos académicos. El perfeccionamiento de los deepfakes para la generación de imágenes, videos y audios, junto con la IA generativa para crear textos e imágenes realistas, combinado con la dependencia de las redes sociales como fuente de información, ha posibilitado la desinformación y sus efectos nocivos a gran escala: desconexión, desconfianza, alienación social e incluso odio hacia “el otro”.
Es evidente que la IA ya se está utilizando para manipular nuestra toma de decisiones en muchas áreas críticas. Ya advertimos el impacto en la conducta electoral y la política. Sin marcos regulatorios adecuados y una concientización y formación públicas para un uso seguro, existe el riesgo de que los sesgos existentes—ya sean de género, raza, origen geográfico, orientación sexual y más—se perpetúen y amplifiquen. La IA podría moldear nuestras decisiones y comportamientos mediante procesos opacos, atrapándonos en silos que refuercen nuestras creencias y distorsionen nuestra percepción de la realidad.
A medida que los algoritmos buscan maximizar la participación a través de contenidos de alto impacto emocional, corremos el riesgo de profundizar aún más la desconexión, la desconfianza y el desprecio o la enemistad entre nosotros.
Hace unos meses un legislador norteamericano increpó duramente a Mark Zuckerberg, dueño de Meta (Facebook, Instagram, WhatsApp) acusándolo de tener "sangre en sus manos" por no tomar medidas para proteger a los niños de los daños que los propios estudios de su empresa muestran que causan sus plataformas sociales. Qué es más fácil: prevenir o corregir? Será posible pedirle cuentas a Elon Musk, el nuevo asesor de eficiencia gubernamental de EEUU por su propuesta de una pausa de 6 meses para reflexionar sobre la IA? ¿No deberíamos exigirle que organice un grupo de reflexión gubernamental para abordar estos desafíos en lugar de dejarlos en manos de magnates tecnológicos con inevitables conflictos de interés?