Nestor Maslej, de la Universidad de Stanford: “Transparentar las decisiones de los modelos de inteligencia artificial será clave para regularla”
El director de investigación en el Instituto de Inteligencia Artificial Centrada en el Humano (HAI) dijo que la apertura en los sistemas IA será fundamental para generar confianza en su uso y afirmó que se debe avanzar en marcos regulatorios globales que integren la transparencia.
Por: Marco Zecchetto | Publicado: Viernes 4 de octubre de 2024 a las 04:00 hrs.
T+
T-
Compartir
El avance de la Inteligencia Artificial (IA) está redefiniendo cómo las empresas, gobiernos y personas interactúan con la tecnología, impactando todos los sectores de la vida humana. En este contexto, un tema que comienza a tomar relevancia de cara a los proyectos de ley que buscan regular esta tecnología, es la transparencia de la IA.
El director de investigación en el Instituto de Inteligencia Artificial Centrada en el Humano (HAI, en inglés) de la Universidad de Stanford, California, Nestor Maslej, dijo que transparentar cómo los sistemas de IA toman las decisiones es “fundamental” para avanzar en proyectos de ley que regulen la tecnología y para que las personas comprendan las decisiones de estos modelos y así generar confianza en su uso.
“Cuando la gente sabe lo que hay dentro de la salchicha, por así decirlo, confía mucho más en las cosas. Históricamente, con otras tecnologías como las redes sociales, no hubo tanta apertura como nos gustaría, y espero que con la IA las cosas sean un poco más positivas”.
“Cuando la gente sabe lo que hay dentro de la salchicha, por así decirlo, confía mucho más en las cosas. Históricamente, con otras tecnologías como las redes sociales, no hubo tanta apertura como nos gustaría, y espero que con la IA las cosas sean un poco más positivas y resolvamos diferentes dificultades y desafíos”, comentó.
Maslej, quien es el responsable del AI Index, un barómetro que mide el progreso de la IA a nivel global, también señaló que esta tecnología no es sólo un tema académico, sino que ha pasado a ser un problema central en el mundo empresarial, donde las compañías se ven desafiadas a tomar las oportunidades que ofrece la IA y, al mismo tiempo, adaptarse a las regulaciones.
- Usted ha señalado que la IA pasó a ser un problema empresarial, ¿cuáles son los retos para usarla?
- Mirando el AI Index, lo que realmente veo ahora es que la IA se está convirtiendo en un problema empresarial y no necesariamente académico. Hace 10 años, era algo en lo que trabajaban un montón de profesores y no tenía demasiada relevancia industrial, mientras que ahora, las empresas saben que la tecnología está aquí y que tiene efectos positivos. Hoy las compañías están tratando de averiguar cómo deben utilizar la tecnología y qué tipo de cosas tienen que hacer con ella, por lo que uno de los mayores cambios que he visto en el desarrollo es que no se trata sólo de lo que la IA puede hacer, sino de cómo podemos utilizarla para avanzar en las diferentes cosas que estamos haciendo.
Las empresas también se enfrentan ahora a un reto, porque muchas entienden que esta herramienta es muy útil, pero a otras les preocupa empezar a utilizarla, que la regulación entre en juego, y entonces podrían no estar en cumplimiento. Hay un desafío de entender cómo usarla y cómo equilibrarla bien.
Transparencia y colaboración
- El último AI Index advirtió una creciente preocupación pública por el impacto de la IA en los próximos años, ¿cómo se puede generar mayor confianza en la sociedad?
- Si tienes una IA que toma decisiones, por ejemplo, tal vez esté decidiendo si consigues o no un trabajo o tal vez si cumples con los requisitos para un préstamo. Puede ser un poco desestabilizador recibir esa decisión y no saber qué se ha tenido en cuenta para tomarla. Ahora, si entiendes un poco mejor qué factores determinan eso, qué tipo de cosas importan, qué tuvo que pasar para llegar a esa decisión, entonces podría ser un poco más fácil llegar a un acuerdo en relación con la tecnología.
Un buen ejemplo son los vehículos autónomos, en ciertos aspectos son más seguros que los humanos, pero muchas personas no están a favor de ellos, porque cuando una máquina comete un error es un poco difícil aceptar ese hecho y asimilarlo. Pero cuando un humano comete un error, una persona puede molestarse con ese humano y eso ayuda en el proceso de aceptar lo que ha sucedido. Así que la transparencia es muy importante para que las personas confíen más en la tecnología, especialmente si se va a implementar mucho más en la vida cotidiana.
En ámbitos regulatorios, si comparamos el desarrollo de la IA con el de las redes sociales, probablemente nos tomó unos cinco a 10 años para regularlas, y muchos sentimos que lo habríamos hecho un poco diferente si pudiéramos volver atrás, con mayor apertura. Pero al considerar 2022 como un punto de inflexión para la IA con el lanzamiento de ChatGPT, los legisladores realmente han despertado y ha habido mucha colaboración internacional.
- ¿Qué rol juega la colaboración internacional para avanzar en marcos regulatorios estandarizados que integren la transparencia?
- Al menos a nivel internacional, parte de la solución es fomentar que investigadores, políticos y distintos actores en este ámbito entiendan que se trata de un problema humano, no solo de Chile, de Estados Unidos o de Argentina. Es algo que todos debemos enfrentar. Vivimos en un mundo muy globalizado, y no basta con trabajar solo en los problemas de tu propio país sin colaborar con los demás.
La colaboración es muy importante y esencial. Ese mensaje ha sido recibido en muchos círculos internacionales, y mientras más avancemos en esa dirección, mejores serán las oportunidades para colaboraciones internacionales productivas.