Macarena McKay, asociación de ética empresarial de Chile: “La IA no puede generar ciudadanos de primera y segunda categoría”
La experta advirtió que, sin una gestión ética adecuada, esta herramienta podría amplificar las brechas sociales, e impactar en la confianza y reputación de las empresas que la utilizan.
Por: Marco Zecchetto | Publicado: Domingo 10 de noviembre de 2024 a las 21:44 hrs.
T+
T-
Foto: Manuel Urzua
Compartir
El rápido avance de la inteligencia artificial (IA) ha generado una serie de impactos positivos para la sociedad, sin embargo, su desarrollo también plantea dilemas éticos, derivados del potencial que tienen estos sistemas para reproducir sesgos, aumentar las desigualdades, especialmente en los grupos más vulnerables, e incluso, afectar la reputación de las empresas.
Si bien la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (Unesco) en 2021 elaboró la primera norma ética de la IA dirigida a sus estados miembros, las alertas continúan, en un contexto en que la carrera por los próximos avances de esta tecnología pareciera tener alas.
La ingeniera comercial de la Universidad Católica y directora de la Asociación de Ética Empresarial y Organizacional de Chile, Macarena McKay, en línea con las recomendaciones de la Unesco, planteó la necesidad de integrar la ética en el desarrollo de los modelos de IA como piedra angular para evitar consecuencias sociales “catastróficas”.
“Si los datos del algoritmo vienen solo de países desarrollados, tampoco reflejan la realidad cultural, social o económica del otro país, y lo más grave es que se excluye a los países más vulnerables, profundizando la desigualdad”
“Si no gestionamos éticamente la IA, corremos el riesgo de perpetuar y aumentar las brechas y desigualdades sociales”, afirmó.
La también directora ejecutiva de Impact Dev, enfatizó en la necesidad de abordar los sesgos para evitar generar “ciudadanos de primera y segunda categoría”. Además, destacó la importancia de que tanto los desarrolladores como los tomadores de decisiones incorporen inteligencia emocional en sus procesos para evitar consecuencias sociales y económicas.
- ¿Cuáles son las principales barreras para integrar la ética en la IA?
- Uno de los desafíos más profundos es la transparencia en los algoritmos; esto va desde la eliminación de los sesgos, hasta desarrollar una gobernanza local y global que vaya en beneficio de la humanidad. Es importante también que se asegure una rendición de cuentas efectiva, que sepamos la calidad de los datos que estamos empleando en el desarrollo de los modelos y para qué se están usando. Eso no solo es porque queremos que la IA sea eficiente y que no tenga errores, sino que sea justa y confiable.
En un mundo donde la IA cada vez está más involucrada en decisiones críticas, tenemos que asegurarnos que estas sean transparentes y que prioricen el bienestar humano por encima de todo. Se debe priorizar la inteligencia emocional y a la persona en el centro de las decisiones, y para eso, la calidad y el uso de los datos tiene que estar alineado con principios sólidos. Entonces, si no gestionamos éticamente la IA, corremos el riesgo de perpetuar y aumentar las brechas y desigualdades sociales, y las consecuencias realmente pueden ser catastróficas.
- ¿Cómo se vincula la inteligencia emocional con la ética en la IA?
- Un sistema que no considera en su desarrollo la inteligencia emocional no puede ser justo, y para eso, tanto los desarrolladores como los tomadores de decisión necesitan adquirir estas habilidades. Por un lado, para poder construir una tecnología que no solo interprete datos, sino que respete a las personas en todas sus dimensiones, y que al mismo tiempo seamos conscientes del impacto de las decisiones que se están tomando. Así vamos a poder entender el alcance que puede tener una decisión mal tomada.
La inteligencia emocional es muy importante en este tipo de avances tecnológicos. Necesitamos que estos sistemas entiendan y respondan empáticamente también a los usuarios, que sean capaces de interpretar desde el lenguaje no verbal, hasta las emociones.
Sesgos y cultura
- ¿Qué podría pasar si no se aborda el problema de los sesgos algorítmicos?
- Tanto los sesgos voluntarios como involuntarios pueden ser muy perjudiciales. Primero, porque los sesgos generan discriminación, y al ser perpetuados se crea un abismo y crecen las desigualdades sociales, sobre todo en el caso de minorías o grupos vulnerables. Esto puede afectar directamente, por ejemplo, en las decisiones de contratación de una persona por sobre otra, entonces no podemos generar ciudadanos de primera y segunda categoría.
Y esto lleva a la pérdida de confianza. Si yo como usuario me doy cuenta de que la IA es injusta o me está discriminando, o me veo perjudicado con ese algoritmo, se genera una pérdida de confianza y de reputación en las empresas que lo usan. Entonces, si las compañías no identifican estos sesgos desde una etapa previa de auditoría, van a tener el problema de las malas decisiones, lo que incluso puede tener consecuencias económicas para la empresa.
- ¿Qué ocurre con los países que importan modelos extranjeros que no reflejan su realidad?
- Depender tecnológicamente de otros es fatal. Si un país no tiene la capacidad de desarrollar su propio sistema, muchas veces los modelos extranjeros no van a estar acorde con las necesidades de ese país, y eso va a llevar a que tengamos decisiones injustas o ineficaces.
Si los datos del algoritmo vienen solo de países desarrollados, tampoco reflejan la realidad cultural, social o económica del otro país, y lo más grave es que se excluye a los países más vulnerables, profundizando la desigualdad.