Jason Voss es un acreditado CFA, co-fundador y CEO de la firma Deception And Truth Analysis, con base en Sarasota, Florida, Estados Unidos. La mencionada firma se especializa en proporcionar un análisis de toda comunicación basada en texto, ello con la finalidad de detectar mentira y engaño.
Por allá por el 15 de febrero de 2021, Voss publicó en el el Blog del CFA Institute (blogs.cfainstitute.org) un artículo titulado “Fraud and Deception Detection: Text-Based Analysis” y en el que plantea respuestas para la siguiente pregunta hecha, por ejemplo, desde la perspectiva de un inversor: ¿Mediante qué método repetible podemos evaluar la confiabilidad de las empresas y su gente?
Una respuesta general pudiera ser: “Mediante una combinación de análisis de estados financieros e instinto». Voss argumenta que esa respuesta es incorrecta.
En primer lugar, las empresas comunican información a través de palabras más que de números. Por ejemplo, de 2009 a 2019, los informes anuales de las empresas que componen el Dow Jones Industrial Average registraron un poco más de 31,8 millones de palabras y números combinados, según AIM Consulting. Sin embargo, los números solo representaron 13,5% del total.
En segundo lugar, confiar en el instinto tampoco funciona. Voss cita que en 2017 su equipo midió las habilidades de detección de engaños entre los profesionales financieros. Era la primera vez que se ponía a prueba la destreza de detección de mentiras en la industria financiera. El hallazgo: la tasa general de éxito de los financieros fue peor que la de la población general: obtuvieron una tasa de 49,4%, por debajo de la tasa esperada de aciertos al lanzar una moneda al aire (50%).
Afirma Voss que los profesionales de las finanzas tienen un fuerte sesgo: tienden a confiar en otros profesionales de las finanzas mucho más de lo que deberían. La investigación de Voss encontró que solo detectan una mentira 39,4% de las veces. También, los profesionales de las finanzas creen que pueden detectar mentiras dentro del área de finanzas con una tasa de precisión de 68%, pero la tasa medida fue de 51,8%. La diferencia obedece, precisamente a un sesgo de exceso de confianza.
En tercer lugar Voss menciona el caso de los contadores auditores y se pregunta: ¿Pueden evaluar con precisión la veracidad financiera de la empresa y ahorrarnos tiempo y dinero? El caso es que los auditores solo pueden realizar sus análisis a través de un micro-muestreo de datos de transacciones y sus técnicas se centran en gran medida en ese muy pequeño 13,5% de información que se captura numéricamente. Lo anterior deja fuera 86,5% del contenido basado en texto.
Aquí es donde Voss comienza su venta del análisis de texto con base científica y habla del trabajo pionero de James W. Pennebaker («The secret life of pronouns: what our words say about us», Bloomsbury Publishing, 2013). A mediados de la década de 1990, Pennebaker y sus colegas desarrollaron Linguistic Inquiry and Word Count (LIWC; pronunciado «Luke»), un programa de análisis de texto computarizado que se basa en investigaciones que establecen fuertes vínculos entre los patrones lingüísticos y la personalidad o el estado psicológico. Pennebaker y asociados han utilizado dicha herramienta para analizar el lenguaje de los líderes de Al Qaeda y de los candidatos políticos, particularmente en las elecciones presidenciales de Estados Unidos de 2008.
Actualmente las computadoras y los algoritmos (no necesariamente de Inteligencia Artificial) extraen características del lenguaje del texto, como frecuencias de palabras, detalles psicolingüísticos o términos financieros negativos y desempolvan las huellas dactilares del lenguaje. Aquí, las tasas de éxito en detección de mentiras oscilan entre 64% y 80%.
Un análisis basado en texto impulsado por computadora, publicado en 2011, tuvo la capacidad de predecir el desempeño negativo del precio de las acciones para las empresas cuyos 10-K incluían un mayor porcentaje de palabras negativas. Al escanear documentos en busca de palabras y frases asociadas con el tono de las comunicaciones financieras, este método buscó elementos que pudieran indicar engaño, fraude o desempeño financiero deficiente en el futuro.
Por supuesto, aquellas empresas cuyos precios de acciones se vieron afectados por esta técnica se adaptaron: eliminaron por completo las palabras negativas de sus textos hablados y escritos. Algunos ejecutivos incluso contrataron entrenadores de habla para evitar pronunciarlos. De esta forma los análisis de listas de palabras han perdido parte de su brillo.
Por tal razón se utilizan métodos y algoritmos que analicen textos más allá de su contenido negativo y se enfoquen en la estructura del lenguaje y no en el lenguaje utilizado. En tal sentido es que el trabajo de James W. Pennebaker resulta clave.