Los inversionistas utilizan IA para descubrir qué esconden las palabras tranquilizadoras de los ejecutivos
Los analistas esperan que la inteligencia artificial pueda revelar lo que no se dice en las llamadas sobre ganancias.
- T+
- T-
En su última llamada de ganancias como director ejecutivo de la empresa de secuenciación genética, Illumina, Francis deSouza hizo todo lo posible por mantener una actitud positiva.
Una polémica adquisición de US$8 mil millones de la empresa de detección de cáncer Grail provocó una campaña del inversor activista Carl Icahn, conflictos con autoridades de competencia en ambos lados del Atlántico y críticas de los directores fundadores de Grail.
DeSouza le dijo a los analistas que el drama solo estaba afectando "una parte muy pequeña de la empresa".
Pero cada vez que le preguntaban sobre Grail, había cambios en su velocidad de habla, tono y volumen, según Speech Craft Analytics, que utiliza inteligencia artificial para analizar grabaciones de audio. También hubo un aumento en palabras de relleno como "um" y "ah", e incluso un sorbo audible.
Según David Pope, científico de datos principal de Speech Craft Analytics, la combinación "traiciona signos de ansiedad y tensión específicamente al abordar este tema delicado".
DeSouza renunció menos de dos meses después.
La idea de que las grabaciones de audio podrían proporcionar pistas sobre las verdaderas emociones de los ejecutivos ha llamado la atención de algunos de los inversionistas más grandes del mundo.
Muchos fondos ya utilizan algoritmos para examinar transcripciones de llamadas de ganancias y presentaciones de empresas para obtener señales sobre la elección de palabras de los ejecutivos, un campo conocido como "Procesamiento del Lenguaje Natural" o PLN. Ahora están tratando de encontrar mensajes adicionales en la forma en que se pronuncian esas palabras.
"La idea es que el audio captura más que simplemente lo que está en el texto", dijo Mike Chen, jefe de investigación de alfa alternativa en Robeco, el administrador de activos. "Incluso si tienes una máquina semántica sofisticada, solo captura la semántica".
Vacilaciones y relleno
La vacilación y las palabras de relleno tienden a omitirse en las transcripciones, y la inteligencia artificial también puede captar algunos "microtemblores" que son imperceptibles para el oído humano.
Robeco, que gestiona más de US$80 mil millones en fondos impulsados algorítmicamente, lo que lo convierte en uno de los mayores cuantitativos, comenzó a agregar señales de audio recogidas a través de la inteligencia artificial en sus estrategias a principios de este año. Chen dijo que había aumentado los rendimientos y que esperaba que más inversores siguieran el ejemplo.
El uso del audio representa un nuevo nivel en el juego del ratón y el gato entre los gestores de fondos y los ejecutivos.
"Hemos encontrado un valor tremendo en las transcripciones", dijo Yin Luo, jefe de investigación cuantitativa en Wolfe Research. "El problema que ha creado para nosotros y muchos otros es que el sentimiento general se vuelve cada vez más positivo... [porque] la dirección de la empresa sabe que sus mensajes están siendo analizados".
Varios documentos de investigación han encontrado que las presentaciones se vuelven cada vez más positivas desde la aparición de PLN, ya que las empresas ajustan su lenguaje para engañar a los algoritmos.
Un documento coescrito por Luo a principios de este año encontró que combinar PLN tradicional con análisis de audio era una forma efectiva de diferenciar entre empresas a medida que sus presentaciones se volvían cada vez más "estandarizadas".
Aunque los costos han bajado, el enfoque aún puede ser relativamente caro. Robeco pasó tres años invirtiendo en una nueva infraestructura tecnológica antes de comenzar a incorporar el análisis de audio.
Chen pasó años tratando de usar audio antes de unirse a Robeco, pero encontró que la tecnología no estaba lo suficientemente avanzada. Y aunque las percepciones disponibles han mejorado, todavía hay limitaciones.
Para evitar sacar conclusiones precipitadas basadas en diferentes personalidades -ya que algunos ejecutivos pueden ser naturalmente más efusivos que otros-, el análisis más confiable proviene de comparar diferentes discursos de la misma persona a lo largo del tiempo. Pero eso puede dificultar juzgar el desempeño de un nuevo líder -podría decirse que es un momento en el que la perspicacia sería especialmente útil-.
"Una limitación incluso en el PLN es que un cambio de CEO desordena el sentimiento general [análisis]", dijo un ejecutivo de una empresa que proporciona análisis de PLN. "Este efecto de interrupción debe ser más fuerte con la voz".
Los desarrolladores también deben evitar agregar sus propios sesgos a los algoritmos basados en audio, donde las diferencias como género, clase o raza pueden ser más evidentes que en el texto.
"Somos muy cuidadosos para asegurarnos de que los sesgos conscientes que conocemos no se incluyan, pero aún podría haber algunos subconscientes", dijo Chen. "Tener un equipo de investigación grande y diverso en Robeco ayuda".
Ojo con el idioma
Los algoritmos pueden dar resultados engañosos si intentan analizar a alguien que habla en un idioma no nativo, y una interpretación que funciona en un idioma puede no funcionar en otro.
Así como las empresas han tratado de adaptarse al análisis de texto, Pope predijo que los equipos de relaciones con los inversionistas comenzarán a entrenar a los ejecutivos para monitorear el tono de voz y otros comportamientos que las transcripciones pasan por alto. El análisis de voz tiene dificultades con actores entrenados que pueden permanecer convincentemente en el personaje, pero replicar eso puede ser más fácil decirlo que hacerlo para los ejecutivos.
"Muy pocos de nosotros somos buenos para modular nuestra voz", dijo. "Es mucho más fácil para nosotros elegir nuestras palabras cuidadosamente. Hemos aprendido a hacer esto desde muy jóvenes para evitar meternos en problemas".