Actualidad

Michal Kosinski: “Compartir la data es como los impuestos, sirven a un bien social mayor”

El académico de Stanford señaló que con la inteligencia artificial al servicio del big data llegó el fin de la privacidad, un proceso que no tiene vuelta atrás.

Por: Valentina Valenzuela | Publicado: Miércoles 5 de julio de 2017 a las 04:00 hrs.
  • T+
  • T-

Compartir

Un like de Facebook, según Michal Kosinski, psicólogo polaco y académico de Stanford, es suficiente para comenzar a predecir la personalidad y el comportamiento de una persona.

El creador del algoritmo que predice la personalidad estuvo de visita en Chile en el marco del Seminario Inteligencia Artificial, el fin de la privacidad: sus efectos en negocios, gobiernos y personas, organizado por Diario Financiero y Analytics 10, y presentado por Accenture.

Ante unas 600 personas señaló que una de las grandes migraciones humanas es la actual, que va hacia lo digital, y que en el proceso “dejamos muchas huellas digitales, aunque no queramos”. Éstas constituyen el data, que es toda la información que se comparte vía red.

Según Kosinski el data podría ser el bien más valioso que la humanidad estaría produciendo hasta el momento. “Cuando combinas big data, con inteligencia artificial, con máquinas y analítica, puedes hacer dos cosas muy útiles: entender el pasado y predecir el futuro”, explicó Kosinski.

¿Cómo funciona el modelo de predicción? La huella digital permite extraer información del comportamiento de una persona. Según el académico, “los computadores puede encontrar puntos estadísticos, el algoritmo es capaz de tomar un dato pequeño y sumarlo a las otras huellas digitales”, esto crea un gran archivo de información disponible.

Según Kosinski este análisis permite “entender la tendencia del mercado, qué me da ventaja frente a los competidores. Es el dato que me construye y puedo venderlo”.

Esto está llevando a los mercados y a las compañías a buscar y analizar esta información, para generar estrategias diferenciadoras que les permitan llegar a su target de forma mucho más precisa.

Propiedad de los datos

“El data es como los impuestos, nadie está entusiasmado de pagarlos, pero todos entienden que compartir el data es como los impuestos, sirven a un bien social mayor, y este es el aspecto que muchas veces se pasa por alto”, dijo.

Esto respecto de la discusión sobre la propiedad de esta data, de si es de los usuarios o de las compañías. Kosinski señaló que las personas deben tener control y ser dueños de éste y venderlo o intercambiarlo por algún bien o servicio, incluso.

Recalcó, tomando Waze y GoogleMaps como ejemplo, que “compartiendo tu data, estás creando valor para la sociedad. Hay personas que están dispuestas a renunciar a su privacidad para crear esta herramienta, que te ahorra tiempo, economía y combustible”.

El fin de la privacidad

“Estamos dejando un número creciente de huellas digitales, todos los días y los computadores son cada vez mejores en transformarlas en predicciones muy precisas de nuestra intimidad y comportamiento futuro”, dijo el académico y señaló que uno de los grandes riesgos es que la tecnología está trayendo el fin de la privacidad.

“Nos estamos enfocando demasiado en hablar de tecnología y tratar de proteger nuestra privacidad, y hablando de la legislación que va a protegerla en una manera que nos está distrayendo”, dijo Kosinski, para ilustrarlo, utilizó la imagen de un tornado, como algo que es inevitable e inminente.

Señaló que las personas ya perdieron la habilidad de controlar y entender la inteligencia artificial, estando cada vez más cerca de quedar obsoletos.

“La relación va a ser como la que tenemos con las palomas. Cuando la inteligencia artificial se maneje y utilice a sí misma, no nos va a necesitar más”, dijo el académico.

Según señaló, el foco de la discusión debe estar en aceptar este hecho y en avanzar en “cómo asegurarnos de que la sociedad y de que nuestra democracia esté lista para el tornado del fin de la privacidad, que va a estar frente a nosotros muy pronto. Cómo logramos que esta sociedad siga siendo un lugar habitable y seguro, de mejores maneras”, remató.


 

La difícil tarea de regular la inteligencia artificial

La inteligencia artificial no es moralmente neutral y va a utilizar los medios necesarios para cumplir con su fin. En este marco se abrió la discusión sobre cómo regular y poner reglas a estos nuevos procesos, sin coartar los beneficios que puede traer.

Nicolás Lewin, socio y director del área de Libre Competencia de NLD Abogados, dijo que los algoritmos pueden llegar a soluciones que las personas no pueden por ley. "La inteligencia artificial si se quiere usar mal, se puede usar mal, ya se ha hecho así para crear colusión de mercados. ¿Hasta qué punto se puede regular el algoritmo? Hay que darse cuenta de los riesgos para solucionarlo", dijo Lewin y agregó que "la sensación que tengo es de ir manejando a toda velocidad, pero mirando por el espejo retrovisor".

Conrad Von Igel, director del Centro de Innovación UC, reafirmó que este es un proceso que no es neutral porque adquiere cierta autonomía y no cuestiona el fin. "No hemos sido capaces de adaptarnos para poner las reglas del juego, la institucionalidad está obsoleta", dijo Von Igel, para quien el foco de la regulación debe estar en las formas en que se va a usar esta tecnología. Además recalcó el potencial que tendría la inteligencia artificial en el Estado como facilitador de la acción de privados y empresas, tomando un rol fizalizador que incluso se podría usar en el Transantiago.

Respecto de este potencial, Rodrigo González, presidente ejecutivo de Accenture, dijo que es una tecnología que llegó para quedarse y que bien usada puede empoderar a las personas y, mal usada, puede generar quiebres y hacerles daño.

Respecto de la propiedad de los datos, señaló que la velocidad de cambio es muy rápida y los datos líquidos, por lo que un control sobre esto es complejo, como una superficie resbalosa.

Von Igel agregó que el problema de la propiedad de los datos, una vez más, era de regulación. "El tema es la masividad y la autonomía, que la decisión la toma una máquina y no la persona. Hay que poner ciertas reglas del juego", concluyó.

En el caso de Lewin, señaló que si bien en teoría los datos son de las personas, surge la interrogante sobre cómo protegerlos, cuando incluso los gobiernos tienen dificultades para mantener segura su información.

Código Javascript

Lo más leído