La premura por adoptar herramientas de inteligencia artificial (IA) está impulsando a que varias compañías en Chile implementen soluciones sin contar con un modelo de gobernanza claro y sin protocolos de uso, lo que, según expertos, las expone a riesgos como fallas de ciberseguridad, pérdida de competitividad, decisiones incorrectas hasta incumplimientos normativos.
La exlíder de tecnología para Argentina y Chile de Microsoft y directora de empresas, María Francisca Yáñez, dijo que actualmente tres de cada cuatro trabajadores usa IA en su trabajo, pero “casi el 80% lo hace con una inteligencia artificial propia”, un fenómeno que se conoce como Shadow AI (IA en las sombras).
Explicó que se trata del uso de modelos no controlados por las organizaciones, con lo que se corre el riesgo de exposición de información estratégica y sensible de las compañías, lo que puede impactar en la ciberseguridad, generar daños reputacionales y hasta posibles sanciones económicas bajo la Ley de Protección de Datos Personales.
Para Yáñez el principal problema es la falta de políticas internas claras para la adopción de esta tecnología.

María Francisca Yáñez, directora de empresas y Fernando Roa, director ejecutivo de Agentica Systems.
“Las empresas locales que cuentan con modelos de gobernanza y protocolos internos de uso de IA son minoría. Lo que más se observa son los extremos, es decir, las que no tienen ningún tipo de protocolo o política de uso, que tienen libertad absoluta; y otras que han decidido prohibir estas herramientas, lo que trae como consecuencia que las personas usen sus propios modelos, exponiendo fuga de datos”, afirmó Yáñez.
La experta ejemplificó con lo que ocurrió tras el lanzamiento de ChatGPT en noviembre de 2022 en Samsung. Los trabajadores empezaron a utilizar data crítica reservada de la compañía en el modelo de lenguaje, exponiendo información estratégica y secreta, por lo que “Samsung reaccionó rápidamente en ese momento prohibiendo el uso de inteligencia artificial”.
Según Yáñez, esta no sería la solución, pues prohibir su uso genera fugas de talento. “Qué haría una persona curiosa que quiere ser relevante en esta era, si la empresa en que trabaja le prohíbe el uso de inteligencia artificial, es como si años atrás nos hubieran prohibido usar internet”, dijo.
El director ejecutivo de Agentica Systems -consultora y desarrolladora de soluciones tecnológicas para empresas- Fernando Roa, señaló que la ausencia de políticas de uso ético y adecuado de estas herramientas, junto con la falta de pensamiento crítico de los trabajadores, afecta la toma de decisiones basadas en fuentes no verificadas y la calidad de la información.
“Cuando se le pide a un modelo que genere un texto que sea potencialmente exitoso, cuando se le entregan este tipo de sesgos en la instrucción, es muy probable que este entregue errores, que si no se revisan van a generar grandes problemas, porque puede estar alucinando y eso se puede escalar a cualquier tipo de rubro”, afirmó.
También comentó que una vez que los riesgos asociados a la falta de protocolos de uso de IA empiezan a afectar los puntos críticos de una organización, es decir, “cuando ya está el incendio, las empresas empiezan a tomar decisiones un poco tardías”, lo que lleva a la pérdida de competitividad, de oportunidades de negocios, hasta la quiebra.
Brechas y desafíos
La brecha en la gobernanza de la IA también está afectando la competitividad en distintas industrias. Según Roa, sectores como la banca y el retail son los más avanzados en la implementación de estándares y políticas, frente a otras más tradicionales -como la manufacturera que opera con proveedores externos- y que además, van “quedando más atrás” por no aprovechar las oportunidades que ofrece la IA.
Yáñez, en tanto, afirmó que con la IA “se está rompiendo el límite” entre los distintos sectores, porque la ausencia de reglas y protocolos de uso impacta a todas las industrias. Y más aún en el caso de las compañías nativas digitales o tecnológicas, porque es difícil clasificarlas. “Puedes tener un Nubank, por ejemplo, que nació como banco, pero hoy da servicios de telecomunicaciones. Entonces, en todos los temas tecnológicos hoy y en el futuro, cuesta pensar en las industrias como silos”.
Respecto de los desafíos, Roa subrayó la necesidad de capacitar a los equipos para evitar brechas de competitividad y establecer marcos regulatorios internos.
“Hay que actualizarse y auditar permanentemente porque esto (la IA) evoluciona muy rápido y genera aristas nuevas de puntos de fuga, de seguridad, de información. Por lo tanto, generar políticas internas al menos generales en este tema es importante”, dijo Roa.
Yáñez enfatizó en la necesidad de establecer políticas internas que promuevan la innovación y el aprendizaje continuo en el uso de estas herramientas, además de realizar capacitaciones en todos los niveles, desde equipos operativos hasta el directorio.
“Es muy importante tener un comité de inteligencia artificial, ojalá a nivel de directorio, porque es un tema muy estratégico”, planteó.