Este miércoles, en la Comisión de Futuro de la Cámara de Diputados, se reanudó la discusión en particular del proyecto de ley que regula los sistemas de inteligencia artificial, en primer trámite constitucional y con urgencia suma.
Durante la jornada, se dio a conocer el paquete de indicaciones comprometidas por el Ejecutivo antes del receso legislativo de febrero.
En total son 26 enmiendas, las que, según dijo a DF la ministra de Ciencia, Tecnología, Conocimiento e Innovación, Aisén Etcheverry, vienen a ajustar definiciones clave, refinar términos, y armonizar el texto con las últimas leyes aprobadas que tiene relación, como la de protección de datos personales y la de ciberseguridad.
“Un eje central de las modificaciones es la distinción clara entre las obligaciones vinculadas al ‘uso’ de los sistemas de IA, que recaen en los operadores, y aquellas que refieren a los propios sistemas de inteligencia artificial. De esta forma, se establecieron criterios más precisos para delimitar responsabilidades y evitar interpretaciones ambiguas en la aplicación de la normativa”, explicó la ministra.
Cambios propuestos
Entre los principales cambios que propone el Ejecutivo al proyecto de ley que ingresó en mayo de 2024, destaca la incorporación del principio de “explicabilidad” de la IA, estableciendo que los sistemas deben ser comprensibles para las personas afectadas y garantizar transparencia en sus operaciones.
También se redefinen los “usos de riesgo inaceptable”, prohibiendo -entre otros- la manipulación subliminal que induzca acciones dañinas; categorización de personas basada en datos sensibles; identificación biométrica remota; clasificación social genérica; y evaluación de estados emocionales.
Por otro lado, se establecen nuevas reglas para los sistemas de IA de alto riesgo, incluyendo requisitos de transparencia, seguridad y gobernanza de datos.
También se crea un sistema de supervisión humana obligatorio para estos sistemas, con mecanismos de control y registros de operación.
En tanto, para la IA de riesgo limitado, se establecieron condiciones de transparencia que permitan a las personas reconocer cuándo están interactuando con un sistema automatizado.
Además, en el caso de los espacios de prueba controlado o sandbox, se introduce la posibilidad de que los órganos del Estado puedan habilitar sus propios sandbox para probar tecnología de IA bajo supervisión, y se modifican las escalas de sanciones.
Estos últimos puntos habían sido cuestionados por la diputada Paula Labra en una entrevista con DF el miércoles.
Según el informe financiero complementario elaborado por la Dirección de Presupuestos (Dipres), estas indicaciones no irrogarán mayor gasto fiscal respecto de su informe anterior.
Avanza el debate
Mientras tanto, durante la sesión del miércoles, la Comisión de Futuro avanzó en la aprobación de dos modificaciones al proyecto de ley.
Primero se aprobó la indicación del Ejecutivo para definir el concepto de “explicabilidad” de los sistemas de IA en el artículo 4 del proyecto de ley.
Del mismo modo, se avanzó en las nuevas definiciones de los usos de riesgo inaceptable del artículo 6 para incorporar los cambios ingresados por el Gobierno y diputados.
Sin embargo, en este artículo, quedó pendiente la aprobación del inciso de identificación biométrica remota en espacios de acceso público en tiempo real debido a las dudas manifestadas por los parlamentarios frente al alcance de esta indicación en temas de seguridad pública.