La PhD en Computer Science de la Universidad de Paris-Sud y profesora de Ciencias de la Computación de la Universidad de París-Sorbona, Laurence Devillers, es experta en computación afectiva en el ámbito de la interacción humano- robot, una temática que la ha llevado a investigar los aspectos éticos involucrados.
Devillers participó por segunda vez como oradora en el Congreso Futuro 2025 que se realizó la semana pasada. En 2024 habló de la interacción humano- robot y este año en su charla, “IA generativa y chatbot: cuestiones éticas”, profundizó en los riesgos asociados a la inteligencia artificial generativa, aquella capaz de crear nuevos contenidos -texto, audio o video- a partir de una instrucción (prompt) de texto, como ChatGPT de OpenAI.
“Existe el riesgo de que las personas confundan la máquina con un ser humano. Para mí, una explicación es que es una caja muerta, porque hay muchas personas involucradas en este campo, aunque no podamos explicarlo todo”.
Tras su conferencia, en entrevista con DF abordó los aspectos éticos que rodean al desarrollo de la IA generativa y a los nuevos agentes de IA, como los sesgos algorítmicos y la influencia de los grandes modelos de lenguaje en los humanos. También criticó la intención del presidente de Estados Unidos, Donald Trump, de desregular la industria tecnológica.
“Lo que ha hecho Trump, decir que desregulemos todo, es una pesadilla” y agregó que su principal preocupación es Elon Musk, porque es “un auténtico transhumanista que no tiene límites”.
- ¿Cómo ve la evolución de la IA generativa a los agentes de IA, capaces de ejecutar acciones?
- Los agentes autónomos son un tema enorme. En mi charla hablé de la IA generativa y estos chatbots. Los últimos algoritmos para chatbots utilizan objetivos. Así que le damos un objetivo a la máquina, y esta puede usar una gran cantidad de datos. Por lo tanto, puede resolver muchas cosas, pero no es IA general o AGI (IA hipotética capaz de imitar las habilidades intelectuales de los humanos), porque no tiene conciencia y no tiene una intención real, solo un objetivo que le da un ingeniero.
- ¿Ve lejano el desarrollo de la IA general?
- Estamos muy lejos si usamos este tipo de tecnología. La IA generativa no es la última que tendremos en inteligencia artificial. La próxima tendrá objetivos, y tal vez, como mencioné en mi charla, algo de información sobre el contexto espacio temporal, porque la máquina, con ese tipo de datos, puede construir un modelo de sentido común. Y esto es mucho más poderoso para desarrollar algo que permita a la máquina razonar. La nueva máquina será híbrida entre IA generativa y una IA más tradicional basada en ejemplos.
Riesgos éticos
En su charla en el Congreso Futuro 2025, la experta señaló que los cambios sociales y económicos derivados de la IA generativa y chatbots conllevan riesgos. Entre ellos, la manipulación de usuarios sin responsabilidad, pues la IA generativa “puede mentir sin intención”; afectar el multilingüismo y la diversidad cultural; proyectar cualidades humanas en las máquinas; afectar la educación y el aprendizaje humano; e incrementar el consumo energético.
“El sesgo no es un problema porque siempre hay sesgo. Es imposible construir una máquina sin sesgo (...) Entonces debemos evitar ciertas aplicaciones, como el death bot (bot muerto), aquellas que buscan imitar a las personas”
Aun así, se define como una tecno optimista, por el potencial de los robots para ayudar a los humanos.
- ¿Cuáles son los principales problemas éticos asociados a la IA generativa?
- Existe el riesgo de que las personas confundan la máquina con un ser humano. Para mí, una explicación es que es una caja muerta, porque hay muchas personas involucradas en este campo, aunque no podamos explicarlo todo. Conocemos el concepto, sabemos cómo se entrena la máquina, pero no puedo explicar cómo ciertos parámetros contienen este tipo de información. Sin embargo, sé cómo aprende, y por eso digo que no hay inteligencia en ese sentido. Es estadístico.
Y aunque llegamos matemáticamente a diseñar ciertas cosas, hay mucho de aleatoriedad. Y no es tan fácil decir que el problema está relacionado con esto o con los datos con que se entrenó el modelo, porque nuestros datos no son estables y hay muchos sesgos y discriminación. La máquina aprende lo que le damos. Mi principal preocupación es la aplicación, por ejemplo, en ciberseguridad.
- ¿Se pueden evitar o corregir los sesgos algorítmicos?
- El sesgo no es un problema porque siempre hay sesgo. Es imposible construir una máquina sin sesgo. Estamos construyendo algo que no es neutral. Google construyó un modelo tratando de evitar la discriminación, que solo apareciera gente blanca, pero finalmente obtuvieron lo contrario, y todas las imágenes que la máquina dibujaba eran negros o de otros orígenes étnicos. Es muy difícil poder modificar el resultado del sistema debido a los datos. Entonces, debemos evitar ciertas aplicaciones, como el death bot (bot muerto), como aquellas que buscan imitar a las personas.
- ¿Las gigantes tecnológicas tienen mecanismos para evitar el impacto de los sesgos en las personas?
- No tienen responsabilidad legal, porque las personas firman un contrato para usar la máquina. Pero tienen responsabilidad, por supuesto. Por ejemplo, en EEUU un adolescente de 14 años usó Character AI, una compañía nueva, donde puedes crear, hablar o tener una relación con un personaje, por ejemplo, de Juego de Tronos. El adolescente se enamoró del personaje y se suicidó. Hay una línea que dice “evitar el suicidio”, pero en la práctica no es así. Y hoy la principal patología es la depresión y la soledad. Entonces, lo que ha hecho Trump, decir que desregulamos todo, es una pesadilla.
Unión Europea y EEUU
- ¿Cómo ve la dupla Trump-Musk y qué impacto puede tener en la industria tecnológica?
- Elon Musk es muy inteligente, pero también es un transhumanista. Él multiplica la fortuna por cuatro, es un hombre de negocios. Ahora está con el Presidente de EEUU y está trabajando en cosas increíbles. Prometió ser eficiente y tener menos gente involucrada en el Gobierno. Él ve la oportunidad y no tiene límites ni tampoco lógica. En cambio, la lógica de Trump es económica. Creo que chocarán y no estará mucho tiempo en el Gobierno.
-La UE cuenta con regulaciones en torno a la IA y a la protección de datos, pero EEUU tiene a las grandes tecnológicas. ¿Los modelos de IA generativa y la información falsa de las redes sociales pueden afectar a los europeos?
- En EEUU hay demasiadas historias de suicidios y otras cosas horribles, por lo tanto, el pueblo estadounidense le dirá a Trump, “no juegues con nuestros hijos”. El problema está dentro de ese país.
En Europa somos más prudentes, más preocupados por la sociedad, la humanidad, los derechos, la unidad de lo humano y demás. Mucha gente que conozco ha sido bastante golpeada por X y ya no está en esa red social. Muchas personas se salen. Si siguen así, no habrá más gente en Francia o en Europa en este tipo de red. Podemos hacerlo, los consumidores tenemos mucho poder en Francia.
- En febrero París será sede de la Cumbre de Action de la IA. ¿Qué expectativas tiene?
- Ninguna. Me gusta este Congreso Futuro de Chile, porque están preocupados por los derechos humanos, la dignidad humana, y tratan de darle sentido a esto. En París no es el caso. Es solo cooperación económica. Me reuní en dos ocasiones con el Presidente (Emmanuel) Macron, él quiere que las grandes empresas vayan a Francia. ¿Cuál es el resultado? Todos nuestros mejores investigadores están involucrados en estas grandes tecnologías. Y no es para nosotros.
Pero ahora tenemos una estrategia de economía con esta gran tecnología y la oportunidad durante cuatro años de construir algo que sea soberano con nuestra plataforma.
En el verano, Microsoft tuvo un problema con el módulo de seguridad cibernética y todo se detuvo en el mundo. De acuerdo, dependemos de esta tecnología. Y si Trump decide que desregulemos ¿Qué haremos con eso? Nada.
Ahora es el momento de ser conscientes de todos estos riesgos y hacer algo más. En Francia, hemos construido algunas cosas interesantes en términos de instituciones, pero no hemos hecho nada por la educación. Es una pesadilla, porque el talento futuro de los ingenieros debería ser más consciente de este problema ético y también del ecológico. Nos perdemos muchas cosas porque la educación no está al nivel.