Columnistas

Inteligencia Artificial: ¿promover o regular?

TOMÁS SÁNCHEZ Autor Public Inc. Investigador asociado, HorizontaL

Por: TOMÁS SÁNCHEZ | Publicado: Jueves 6 de junio de 2024 a las 04:00 hrs.
  • T+
  • T-

Compartir

TOMÁS SÁNCHEZ

“Podemos decidir regular mucho más rápido y fuerte que nuestros competidores, pero regularemos cosas que ya no produciremos ni inventaremos. Esto nunca es una buena idea”. Esta fue la apreciación del Presidente Emmanuel Macron, a propósito de la nueva ley sobre Inteligencia Artificial (IA) que la Unión Europea está por promulgar, en tiempos donde el viejo continente se compara con EE.UU. y se pregunta por qué no es la cuna de gigantes tecnológicos, mientras la capitalización bursátil de Nvidia supera toda la bolsa alemana.

Lejos del hemisferio norte, hace algunas semanas se envió al Congreso un proyecto de ley que busca regular el uso de la IA en Chile, con una aproximación en base a los riesgos de sus casos de uso, siguiendo los pasos de la UE. Por un lado, celebro estar a la vanguardia; pero, por otro, es importante recordar las palabras de Macron.

El proyecto sobre el uso de la IA en Chile pone al país en la vanguardia, pero en su discusión también es clave no perder de vista los riesgos de una sobrerregulación.

Creo que hay tres elementos centrales que considerar. Primero, definir con claridad qué constituye delito al utilizar IA y quiénes serian responsables. Evitar caer en la impunidad de los primeros delitos digitales. En ese sentido, se dan pasos adecuados al definir los diferentes roles en la operación. Sin embargo, son cuestionables las prohibiciones en “sistemas de IA de riesgo inaceptable”. El proyecto cae en aspectos genéricos y ambiguos que pueden transformarse en fuente inagotable de litigios al prohibir “explotación de vulnerabilidades de las personas” o “sistemas de calificación social genérica”. Siendo concretos, si pierdo mi dinero en un casino después leer un anuncio segmentado con AI, ¿puedo considerarme manipulado, explotado y levantar una demanda?

Es necesario ser especifico en los casos de uso que buscamos prevenir. Es decir, rayar una línea clara sobre “qué” no se puede hacer con ella. Así, podremos debatir, consensuar y evitar malentendidos. A su vez, se pueden establecer principios a buscar en regulaciones específicas, que deberán ser precisados por las agencias competentes. Por ejemplo, probablemente todos estamos de acuerdo con prevenir la discriminación, pero cuando un banco debe discriminar riesgo todos los días, es esencial ser rigurosos en las definiciones.

Segundo, evitemos la burocracia. El Estado a duras penas es capaz de fiscalizar lo que debería y el proyecto busca establecer una serie de requerimientos para casos de alto riesgo. ¿Quién fiscalizará la gobernanza de datos o documentación técnica de miles de startups? Como dicen por ahí, “llamamos inteligencia artificial a lo nuevo, pero cuando ya lo usamos, le decimos software”. Diferentes tipos de IA ya son usados ampliamente, por lo tanto, la ley obligaría a miles de empresas establecer sistemas de gestión de riesgo y otros tantos nuevos protocolos. ¿Cómo aseguro que mi chatbot vela por el bienestar social y el medio ambiente si opera sobre un modelo fundacional en EE.UU.? ¿Cómo garantizo la explicabilidad de mi modelo cuando su complejidad no me permite explicarlo?

Tercero, no perdamos de vista lo importante. El esfuerzo debe estar en adoptar nuevas tecnologías para aumentar nuestra productividad y bienestar. Promover las oportunidades que ofrece la AI en nuestras empresas, sistema educacional y en el Estado. Necesitamos ser capaces de ponernos al día, pero con legislación simple, precisa y sin burocracia adicional, permitiendo al Estado y empresas aprovechar todo su potencial.

Lo más leído