Innovación y Startups

Reguladores estadounidenses investigan al dueño de ChatGPT por riesgos de la Inteligencia Artificial

La Comisión Federal de Comercio investiga a OpenAI, respaldada por Microsoft, por los posibles perjuicios causados por un chatbot que produce información falsa.

Por: Financial Times | Publicado: Jueves 13 de julio de 2023 a las 14:05 hrs.
  • T+
  • T-
Los expertos se han mostrado preocupados por la gran cantidad de datos que acaparan los modelos lingüísticos de ChatGPT.
Los expertos se han mostrado preocupados por la gran cantidad de datos que acaparan los modelos lingüísticos de ChatGPT.

Compartir

La Comisión Federal de Comercio (FTC, sigla en inglés) inició una amplia investigación sobre OpenAI, startup dueña de ChatGPT, en un momento en que el regulador estadounidense centra su atención en los riesgos potenciales creados por el auge de la Inteligencia Artificial (IA).

En una carta enviada a la empresa respaldada por Microsoft, la FTC afirma que estudiará si los usuarios se han visto perjudicados por la producción de información falsa sobre ellos por parte del chatbot de IA, así como si OpenAI ha incurrido en prácticas "desleales o engañosas" en materia de privacidad y seguridad de datos.

Los productos de IA generativa están cada vez más en el punto de mira de los reguladores de todo el mundo, a medida que los expertos en IA y los expertos en ética hacen sonar la alarma por la enorme cantidad de datos personales que consume la tecnología, así como por sus resultados potencialmente dañinos, que van desde la desinformación a los comentarios sexistas y racistas.

En mayo, la FTC lanzó una advertencia a la industria, afirmando que "se está centrando intensamente en cómo las empresas pueden optar por utilizar la tecnología de IA, incluidas las nuevas herramientas de IA generativa, de maneras que pueden tener un impacto real y sustancial en los consumidores".

Datos de usuarios

En su carta, el regulador estadounidense pedía a OpenAI que compartiera material interno sobre cómo el grupo utiliza o retiene la información de los usuarios, los datos que ha utilizado para desarrollar grandes modelos lingüísticos y las medidas que ha tomado la empresa para hacer frente al riesgo de que su modelo produzca afirmaciones "falsas, engañosas o despectivas".

La FTC declinó hacer comentarios sobre la carta, que publicó por primera vez el Washington Post, al igual que OpenAI.

Lina Khan, presidenta de la FTC, testificó el jueves por la mañana ante el Comité Judicial de la Cámara de Representantes y enfrentó fuertes críticas de los legisladores republicanos por su dura postura en materia de la aplicación de la ley.

Khan forma parte de una nueva generación de funcionarios antimonopolio progresistas nombrados por la administración de Joe Biden, que pretende tomar medidas enérgicas contra las conductas contrarias a la competencia que, en su opinión, llevan décadas sin control en la economía estadounidense.

Los expertos están preocupados por la enorme cantidad de datos que acaparan los modelos lingüísticos de ChatGPT. OpenAI contaba con más de 100 millones de usuarios activos mensuales a los dos meses de su lanzamiento. El nuevo motor de búsqueda de Microsoft, Bing, también basado en tecnología de OpenAI, era utilizado por más de un millón de personas en 169 países a las dos semanas de su lanzamiento en enero.

Alucinaciones

Los usuarios han denunciado que ChatGPT ha inventado nombres, fechas y hechos, así como enlaces falsos a sitios web de noticias y referencias a artículos académicos, un problema conocido en el sector como "alucinaciones".

La investigación de la FTC ahonda en los detalles técnicos del diseño de ChatGPT, incluido el trabajo de la empresa para solucionar las alucinaciones, y la supervisión de sus revisores humanos, que afecta directamente a los consumidores. También ha pedido información sobre las quejas de los consumidores y los esfuerzos realizados por la empresa para evaluar la comprensión de los consumidores sobre la precisión y fiabilidad del chatbot.

En marzo, el organismo italiano de control de la privacidad prohibió temporalmente ChatGPT mientras examinaba, entre otras cuestiones, la recopilación de información personal por parte de la empresa estadounidense tras una brecha de ciberseguridad. Semanas más tarde se restableció, después de que OpenAI hiciera más accesible su política de privacidad e introdujera una herramienta para verificar la edad de los usuarios.

El director ejecutivo de OpenAI, Sam Altman, ha admitido anteriormente que ChatGPT tiene puntos débiles. "ChatGPT es increíblemente limitado, pero lo suficientemente bueno en algunas cosas como para crear una impresión engañosa de grandeza", escribió en Twitter en diciembre. "Es un error confiar en él para algo importante ahora mismo. Es un adelanto del progreso; nos queda mucho trabajo por hacer en cuanto a robustez y veracidad."

Lo más leído