DF Lab Opinión/ Las buenas prácticas promueven la IA responsable
"Es esencial, por tanto, adoptar un enfoque ético y transparente para su desarrollo e implementación. Este enfoque incluye garantizar que los sistemas de IA estén diseñados y entrenados de una manera que evite prejuicios y discriminación y están sujetos a una supervisión y regulación adecuadas".
- T+
- T-
La llegada de la IA Generativa cambió nuestra vida para siempre y ha generado revuelo porque logra realizar acciones que tomaban horas o días, en segundos. A diferencia de lo que se suele creer, la IA no es una tecnología que nació con ChatGPT, pero este llegó como la demostración pública de lo que las organizaciones y empresas llevan años trabajando.
Las conclusiones a las que llega el Instituto de Data Science de la Universidad del Desarrollo, en su segundo diagnóstico de la adopción de la IA de empresas en Chile, lo demuestran: en 2019, el 78% de las empresas pertenecía a la categoría “outsiders”, es decir, empresas que no tenían preocupación estratégica ni procesos adecuados para incorporar IA en sus funciones. Pero en 2022, la categoría se eliminó por falta de empresas que cumplieran esos criterios; la categoría dominante fue la de “insiders”, es decir, compañías con altas competencias en IA, que llegaron a ser el 50% de la muestra.
El uso de la IA tiene el potencial de aportar muchos beneficios, como una mayor eficiencia, precisión mejorada y toma de decisiones más rápida. Sin embargo, su uso también plantea importantes problemas éticos y sociales, preocupaciones como el potencial de discriminación, pérdida de empleos y la concentración de poder y riqueza en manos de unas cuantas grandes empresas. Es esencial, por tanto, adoptar un enfoque ético y transparente para su desarrollo e implementación. Este enfoque incluye garantizar que los sistemas de IA estén diseñados y entrenados de una manera que evite prejuicios y discriminación y están sujetos a una supervisión y regulación adecuadas.
Para garantizar la ética en la IA, es crucial incorporar el principio del consentimiento informado en la recolección de datos. Los usuarios deben estar conscientes y de acuerdo con cómo se utilizan sus datos, reforzando así la transparencia y la confianza en estos sistemas. Además, la educación y concienciación del público sobre la IA no solo es vital para la fuerza laboral, sino también para que la sociedad en su conjunto comprenda y se involucre con esta tecnología de manera informada y crítica.
En relación con la responsabilidad y la rendición de cuentas, es fundamental establecer mecanismos claros que permitan a los desarrolladores y usuarios de sistemas de IA ser responsables de sus acciones y decisiones. Esto incluye tener procedimientos claros para manejar situaciones de mal funcionamiento o uso indebido de la tecnología.
Otra consideración importante es el impacto ambiental y la sostenibilidad de los sistemas de IA. Con el creciente uso de recursos para operar y mantener estas tecnologías, es esencial abordar su huella ecológica y buscar maneras de minimizar su impacto en el medio ambiente.
La colaboración internacional juega un papel crucial en el desarrollo de normas y regulaciones éticas para la IA, considerando que es una tecnología que trasciende fronteras y culturas. Las empresas, especialmente las grandes tecnológicas, deben tomar la iniciativa no solo para el uso interno de la IA, sino también para acompañar a clientes que ya están incorporando rápidamente esta tecnología.
Es esencial alinear el uso de la IA a los valores corporativos, la ciberseguridad y trabajar en los lineamientos que nos entreguen las políticas públicas, directrices que se están discutiendo pero que requieren revisión constante.