Aprendizado de máquina: explique ou rejeite

0
75

“Se você não consegue explicar de forma simples, você não entende.”

E assim é com o aprendizado de máquina complexo (ML).

O ML agora mede o risco ambiental, social e de governança (ESG), executa negociações e pode orientar a seleção de ações e a construção de portfólio, mas os modelos mais poderosos continuam sendo caixas pretas.

A expansão acelerada do ML no setor de investimentos cria preocupações completamente novas sobre a redução da transparência e como explicar as decisões de investimento. Francamente, “algoritmos de ML inexplicáveis [ . . . ] expor a empresa a níveis inaceitáveis ​​de risco legal e regulatório”.

Em linguagem simples, isso significa que se você não pode explicar sua tomada de decisão de investimento, você, sua empresa e seus acionistas estão em apuros. As explicações — ou melhor ainda, a interpretação direta — são, portanto, essenciais.

Botão de inscrição

Grandes mentes em outros grandes setores que implantaram inteligência artificial (IA) e aprendizado de máquina enfrentaram esse desafio. Isso muda tudo para aqueles em nosso setor que preferem cientistas da computação a profissionais de investimento ou tentam lançar aplicativos de ML ingênuos e prontos para uso na tomada de decisões de investimento.

Atualmente, existem dois tipos de soluções de aprendizado de máquina em oferta:

  1. A IA interpretável usa ML menos complexo que pode ser lido e interpretado diretamente.
  2. A IA explicável (XAI) emprega ML complexo e tenta explicá-lo.

XAI pode ser a solução do futuro. Mas esse é o futuro. Para o presente e previsível, com base em 20 anos de investimento quantitativo e pesquisa de ML, acredito que a interpretabilidade é onde você deve procurar aproveitar o poder do aprendizado de máquina e da IA.

Deixe-me explicar por quê.

A segunda revolução tecnológica das finanças

O ML será uma parte importante do futuro da moderna gestão de investimentos. Esse é o amplo consenso. Ele promete reduzir o dispendioso número de funcionários de front-office, substituir modelos de fatores legados, alavancar conjuntos de dados vastos e crescentes e, finalmente, atingir os objetivos do proprietário de ativos de uma maneira mais direcionada e personalizada.

A lenta adoção da tecnologia na gestão de investimentos é uma história antiga, no entanto, e o ML não foi exceção. Ou seja, até recentemente.

A ascensão do ESG nos últimos 18 meses e a limpeza dos vastos pools de dados necessários para avaliá-lo foram as principais forças que impulsionaram a transição para o ML.

A demanda por esses novos conhecimentos e soluções superou qualquer coisa que testemunhei na última década ou desde a última grande revolução tecnológica que atingiu as finanças em meados da década de 1990.

O ritmo da corrida armamentista do ML é motivo de preocupação. A aparente aceitação de especialistas recém-criados é alarmante. Que essa revolução possa ser cooptada por cientistas da computação em vez dos negócios pode ser a possibilidade mais preocupante de todas. As explicações para as decisões de investimento sempre estarão nos fundamentos rígidos do negócio.

Relatório de blocos para equipes em forma de T

Simplicidade Interpretável? Ou Complexidade Explicável?

A IA interpretável, também chamada de IA simbólica (SAI), ou “boa IA à moda antiga”, tem suas raízes na década de 1960, mas está novamente na vanguarda da pesquisa em IA.

Sistemas de IA interpretáveis ​​tendem a ser baseados em regras, quase como árvores de decisão. É claro que, embora as árvores de decisão possam ajudar a entender o que aconteceu no passado, elas são ferramentas de previsão terríveis e normalmente superajustadas aos dados. Os sistemas de IA interpretáveis, no entanto, agora têm processos muito mais poderosos e sofisticados para o aprendizado de regras.

Essas regras são o que deve ser aplicado aos dados. Eles podem ser examinados, examinados e interpretados diretamente, assim como as regras de investimento de Benjamin Graham e David Dodd. Eles são simples talvez, mas poderosos e, se o aprendizado de regras for bem feito, seguros.

A alternativa, IA explicável, ou XAI, é completamente diferente. XAI tenta encontrar uma explicação para o funcionamento interno dos modelos de caixa preta que são impossíveis de interpretar diretamente. Para caixas pretas, entradas e resultados podem ser observados, mas os processos intermediários são opacos e só podem ser adivinhados.

Isso é o que o XAI geralmente tenta: adivinhar e testar seu caminho para uma explicação dos processos de caixa preta. Ele emprega visualizações para mostrar como diferentes entradas podem influenciar os resultados.

O XAI ainda está em seus primeiros dias e provou ser uma disciplina desafiadora. Que são duas razões muito boas para adiar o julgamento e ser interpretável quando se trata de aplicativos de aprendizado de máquina.


Interpretar ou explicar?

Imagem representando diferentes aplicativos de inteligência artificial

Uma das aplicações XAI mais comuns em finanças é o SHAP (SHapley Additive exPlanations). SHAP tem suas origens em Shapely Values ​​da teoria dos jogos. e foi desenvolvido recentemente por pesquisadores da Universidade de Washington.

A ilustração abaixo mostra a explicação SHAP de um modelo de seleção de ações que resulta de apenas algumas linhas de código Python. Mas é uma explicação que precisa de sua própria explicação.

É uma super ideia e muito útil para o desenvolvimento de sistemas de ML, mas seria preciso um PM corajoso para contar com ela para explicar um erro de negociação a um executivo de conformidade.


Um para seu executivo de conformidade? Usando valores Shapley para explicar uma rede neural

Nota: Esta é a explicação SHAP para um modelo de floresta aleatória projetado para selecionar ações alfa mais altas em um universo de ações de mercados emergentes. Ele usa o fluxo de caixa livre passado, beta de mercado, retorno sobre o patrimônio e outros insumos. O lado direito explica como as entradas afetam a saída.

Drones, armas nucleares, diagnósticos de câncer. . . e Seleção de Ações?

Pesquisadores médicos e a indústria de defesa vêm explorando a questão de explicar ou interpretar há muito mais tempo do que o setor financeiro. Eles alcançaram soluções poderosas para aplicações específicas, mas ainda não chegaram a nenhuma conclusão geral.

A Agência de Projetos de Pesquisa Avançada de Defesa dos EUA (DARPA) conduziu pesquisas de ponta e caracterizou a interpretabilidade como um custo que prejudica o poder dos sistemas de aprendizado de máquina.

O gráfico abaixo ilustra essa conclusão com várias abordagens de ML. Nesta análise, quanto mais interpretável uma abordagem, menos complexa e, portanto, menos precisa ela será. Isso certamente seria verdade se a complexidade estivesse associada à precisão, mas o princípio da parcimônia e alguns pesquisadores de peso no campo discordam. O que sugere que o lado direito do diagrama pode representar melhor a realidade.


A Interpretabilidade Realmente Reduz a Precisão?

Gráfico mostrando as diferenças entre aplicativos de IA interpretáveis ​​e precisos
Nota: Cynthia Rudin afirma que a precisão não está tão relacionada à interpretabilidade (direita) como os proponentes do XAI afirmam (esquerda).

Viés de complexidade no C-Suite

“A falsa dicotomia entre a caixa preta precisa e o modelo transparente não tão preciso foi longe demais. Quando centenas de cientistas e executivos de empresas financeiras são enganados por essa dicotomia, imagine como o resto do mundo também pode ser enganado.” — Cynthia Rudin

A suposição incorporada ao campo da explicabilidade – que a complexidade é garantida – pode ser verdadeira em aplicativos em que o aprendizado profundo é crítico, como Prevendo o enovelamento de proteínas, por exemplo. Mas pode não ser tão essencial em outras aplicações, seleção de ações entre elas.

Uma virada no 2018 Explainable Machine Learning Challenge demonstrou isso. Era para ser um desafio de caixa preta para redes neurais, mas a pesquisadora de IA superstar Cynthia Rudin e sua equipe tiveram ideias diferentes. Eles propuseram um modelo de aprendizado de máquina interpretável – leia-se: mais simples. Como não era baseado em rede neural, não exigia nenhuma explicação. Já era interpretável.

Talvez o comentário mais marcante de Rudin seja que “confiar em um modelo de caixa preta significa que você confia não apenas nas equações do modelo, mas também em todo o banco de dados a partir do qual ele foi construído”.

Seu ponto de vista deve ser familiar para aqueles com experiência em finanças comportamentais Rudin está reconhecendo ainda outro viés comportamental: viés de complexidade. Nós tendemos a achar o complexo mais atraente do que o simples. Sua abordagem, como ela explicou na recente Webinar da WBS sobre IA interpretável vs. explicávelé usar apenas modelos de caixa preta para fornecer uma referência para, em seguida, desenvolver modelos interpretáveis ​​com precisão semelhante.

Os C-suites que conduzem a corrida armamentista da IA ​​podem querer fazer uma pausa e refletir sobre isso antes de continuar sua busca total por complexidade excessiva.

Pioneiros de IA em Gestão de Investimentos

Aprendizado de máquina interpretável e auditável para seleção de ações

Enquanto alguns objetivos exigem complexidade, outros sofrem com isso.

A seleção de ações é um exemplo. Dentro “Aprendizado de máquina interpretável, transparente e auditável” David Tilles, Timothy Law e eu apresentamos a IA interpretável, como uma alternativa escalável ao investimento de fatores para seleção de ações na gestão de investimentos em ações. Nosso aplicativo aprende regras de investimento simples e interpretáveis ​​usando o poder não linear de uma abordagem simples de ML.

A novidade é que é descomplicado, interpretável, escalável e poderia – acreditamos – ter sucesso e exceder em muito o investimento em fatores. De fato, nosso aplicativo funciona quase tão bem quanto as abordagens de caixa preta muito mais complexas com as quais experimentamos ao longo dos anos.

A transparência de nosso aplicativo significa que ele é auditável e pode ser comunicado e entendido por partes interessadas que podem não ter um diploma avançado em ciência da computação. XAI não é obrigado a explicá-lo. É diretamente interpretável.

Fomos motivados a divulgar esta pesquisa por nossa crença de longa data de que a complexidade excessiva é desnecessária para a seleção de ações. Na verdade, essa complexidade quase certamente prejudica a seleção de ações.

A interpretabilidade é fundamental no aprendizado de máquina. A alternativa é uma complexidade tão circular que toda explicação requer uma explicação para a explicação ad infinitum.

Onde termina?

Um para os humanos

Então qual é? Explicar ou interpretar? O debate está acirrado. Centenas de milhões de dólares estão sendo gastos em pesquisas para apoiar o aumento do aprendizado de máquina nas empresas financeiras mais inovadoras.

Como acontece com qualquer tecnologia de ponta, partidas falsas, explosões e desperdício de capital são inevitáveis. Mas por enquanto e no futuro próximo, a solução é a IA interpretável.

Considere dois truísmos: quanto mais complexo o assunto, maior a necessidade de uma explicação; quanto mais facilmente interpretável for um assunto, menor será a necessidade de uma explicação.

Bloco de anúncio para Inteligência Artificial no Gerenciamento de Ativos

No futuro, o XAI será mais bem estabelecido e compreendido e muito mais poderoso. Por enquanto, está em sua infância, e é demais pedir a um gestor de investimentos que exponha sua empresa e stakeholders à possibilidade de níveis inaceitáveis ​​de risco legal e regulatório.

O XAI de uso geral não fornece atualmente uma explicação simples e, como diz o ditado:

“Se você não consegue explicar de forma simples, você não entende.”

Se você gostou deste post, não se esqueça de se inscrever no Investidor Empreendedor.


Todos os posts são da opinião do autor. Como tal, eles não devem ser interpretados como conselhos de investimento, nem as opiniões expressas refletem necessariamente as opiniões do CFA Institute ou do empregador do autor.

Crédito da imagem: ©Getty Images / MR.Cole_Photographer


Aprendizagem profissional para membros do CFA Institute

Os membros do CFA Institute têm o poder de autodeterminar e relatar os créditos de aprendizado profissional (PL) obtidos, incluindo conteúdo sobre Investidor Empreendedor. Os membros podem registrar créditos facilmente usando seus rastreador PL online.

Dan Philps, PhD, CFA

Dan Philps, PhD, CFA, é chefe da Rothko Investment Strategies e pesquisador de inteligência artificial (IA). Ele tem 20 anos de experiência em investimentos quantitativos. Antes de Rothko, ele foi gerente sênior de portfólio da Mondrian Investment Partners. Antes de 1998, Philps trabalhou em vários bancos de investimento, especializando-se na concepção e desenvolvimento de modelos de negociação e de risco. Ele tem um PhD em inteligência artificial e ciência da computação pela City, University of London, um BSc (Hons) do King’s College London, é um CFA charterholder, um membro da CFA Society of the UK, e é um pesquisador honorário da Universidade de Warwick.

LEAVE A REPLY

Please enter your comment!
Please enter your name here