Humanidades

Como as mentiras do CEO podem aumentar as classificações das ações e enganar até mesmo analistas financeiros respeitados
O colapso multibilionário da FTX – a importante bolsa de criptomoedas cujo fundador aguarda agora julgamento por acusações de fraude – serve como um duro lembrete dos perigos do engano no mundo financeiro.
Por Steven J. Hyde - 27/09/2023


Domínio público

O colapso multibilionário da FTX – a importante bolsa de criptomoedas cujo fundador aguarda agora julgamento por acusações de fraude – serve como um duro lembrete dos perigos do engano no mundo financeiro.

As mentiras do fundador da FTX, Sam Bankman-Fried, remontam ao início da empresa , dizem os promotores . Alega-se que ele mentiu tanto para clientes como para investidores, como parte daquilo que o procurador dos EUA, Damian Williams, chamou de "uma das maiores fraudes financeiras da história americana".

Como tantas pessoas foram aparentemente enganadas?

Um novo estudo publicado no Strategic Management Journal lança alguma luz sobre o assunto. Nele, os meus colegas e eu descobrimos que mesmo os analistas financeiros profissionais caem nas mentiras dos CEO – e que os analistas mais respeitados podem ser os mais crédulos.

Os analistas financeiros fornecem conselhos especializados para ajudar empresas e investidores a ganhar dinheiro. Eles preveem quanto uma empresa ganhará e sugerem se deve comprar ou vender suas ações. Ao orientar o dinheiro para bons investimentos, ajudam não apenas as empresas individuais, mas toda a economia a crescer.

Mas embora os analistas financeiros sejam pagos pelos seus conselhos, eles não são oráculos. Como professor de administração , me perguntei com que frequência eles são enganados por executivos mentirosos – então, meus colegas e eu usamos o aprendizado de máquina para descobrir. Desenvolvemos um algoritmo, treinado em transcrições de teleconferências de lucros do S&P 1500 de 2008 a 2016, que pode detectar fraudes com segurança 84% das vezes. Especificamente, o algoritmo identifica padrões linguísticos distintos que ocorrem quando um indivíduo mente.

Nossos resultados foram impressionantes. Descobrimos que os analistas eram muito mais propensos a dar recomendações de “compra” ou “compra forte” depois de ouvirem CEOs enganadores – em quase 28 pontos percentuais, em média – do que os seus homólogos mais honestos.

Descobrimos também que analistas altamente conceituados caíram nas mentiras dos CEO com mais frequência do que os seus homólogos menos conhecidos. Na verdade, os analistas considerados “estrelas” pela editora comercial Institutional Investor tinham 5,3 pontos percentuais mais probabilidade de promover CEOs habitualmente desonestos do que os seus homólogos menos célebres.

Embora tenhamos aplicado esta tecnologia para obter informações sobre esta área das finanças para um estudo académico, a sua utilização mais ampla levanta uma série de questões éticas desafiantes em torno da utilização da IA para medir construções psicológicas.

Preconceituoso em acreditar

Parece contra-intuitivo: por que é que os profissionais de aconselhamento financeiro se apaixonariam consistentemente por executivos mentirosos? E por que os conselheiros mais respeitáveis parecem ter os piores resultados?

Estas descobertas reflectem a tendência humana natural de assumir que os outros estão a ser honestos – o que é conhecido como “ preconceito da verdade ”. Graças a esse hábito mental, os analistas são tão suscetíveis a mentiras quanto qualquer outra pessoa.

Além do mais, descobrimos que o status elevado promove um viés de verdade mais forte. Primeiro, os analistas “estrelas” muitas vezes ganham uma sensação de excesso de confiança e de direito à medida que aumentam de prestígio. Eles começam a acreditar que têm menos probabilidade de serem enganados, o que os leva a considerar os CEOs pelo valor nominal. Em segundo lugar, estes analistas tendem a ter relações mais próximas com os CEO, o que estudos mostram que pode aumentar o enviesamento da verdade . Isso os torna ainda mais propensos ao engano.

Dada esta vulnerabilidade, as empresas podem querer reavaliar a credibilidade das designações “all-star”. A nossa investigação também sublinha a importância da responsabilização na governação e a necessidade de sistemas institucionais fortes para combater os preconceitos individuais.

Um ‘detector de mentiras’ de IA?

A ferramenta que desenvolvemos para este estudo pode ter aplicações muito além do mundo dos negócios. Validamos o algoritmo usando transcrições fraudulentas, artigos retratados em revistas médicas e vídeos enganosos do YouTube. Poderia ser facilmente implantado em diferentes contextos.

É importante observar que a ferramenta não mede diretamente o engano; identifica padrões de linguagem associados à mentira . Isto significa que, embora seja altamente preciso, é suscetível tanto a falsos positivos como a negativos – e falsas alegações de desonestidade, em particular, podem ter consequências devastadoras.

Além do mais, ferramentas como esta lutam para distinguir “mentiras inocentes” socialmente benéficas – que promovem um sentido de comunidade e bem-estar emocional – de mentiras mais sérias. Sinalizar indiscriminadamente todos os enganos poderia perturbar dinâmicas sociais complexas, levando a consequências indesejadas.

Essas questões precisariam ser abordadas antes que esse tipo de tecnologia fosse amplamente adotado. Mas esse futuro está mais próximo do que muitos imaginam: empresas em áreas como investimentos, segurança e seguros já estão começando a utilizá-lo .

Grandes questões permanecem

A utilização generalizada da IA para detectar mentiras teria profundas implicações sociais – sobretudo, ao tornar mais difícil para os poderosos mentirem sem consequências.

Isso pode soar como uma coisa inequivocamente boa. Mas embora a tecnologia ofereça vantagens inegáveis, como a detecção precoce de ameaças ou fraudes, também poderá inaugurar uma perigosa cultura de transparência . Num mundo assim, os pensamentos e as emoções poderiam ficar sujeitos a medição e julgamento, corroendo o santuário da privacidade mental.

Este estudo também levanta questões éticas sobre o uso da IA para medir características psicológicas, particularmente no que diz respeito à privacidade e ao consentimento. Ao contrário da investigação tradicional sobre fraude, que depende de seres humanos que consentem em ser estudados, este modelo de IA opera secretamente, detectando padrões linguísticos diferenciados sem o conhecimento do falante.

As implicações são surpreendentes. Por exemplo, neste estudo, desenvolvemos um segundo modelo de aprendizado de máquina para avaliar o nível de suspeita no tom de um locutor. Imagine um mundo onde os cientistas sociais possam criar ferramentas para avaliar qualquer faceta da sua psicologia, aplicando-as sem o seu consentimento. Não é muito atraente, não é?

À medida que entramos numa nova era da IA, as ferramentas psicométricas avançadas oferecem tanto promessas como perigos. Essas tecnologias poderiam revolucionar os negócios, fornecendo insights sem precedentes sobre a psicologia humana. Podem também violar os direitos das pessoas e desestabilizar a sociedade de formas surpreendentes e perturbadoras. As decisões que tomamos hoje – sobre ética, supervisão e uso responsável – definirão o rumo nos próximos anos.


Mais informações: Steven J. Hyde et al, As teias emaranhadas que tecemos: Examinando os efeitos do engano do CEO nas recomendações dos analistas, Strategic Management Journal (2023). DOI: 10.1002/smj.3546

Informações da revista: Revista Gestão Estratégica 

 

.
.

Leia mais a seguir