Inteligência Artificial pode descobrir medicamentos ou armas químicas?

Questionador questionado
6 jun 2022
machines

 

O aprendizado de máquina é uma tecnologia que ganha mais espaço a cada dia. Usamos o aprendizado de máquina todo o tempo, seja para nos guiar pela cidade com aplicativos como o Google Maps, para receber recomendações de séries ou até mesmo para encontrar novos compostos farmacêuticos, inclusive no combate à pandemia de COVID-19.

Neste último caso, as chamadas análises in silico, ou seja, que ocorrem apenas em simulações dentro do computador, oferecem uma série de vantagens éticas e econômicas ao substituir os animais que rotineiramente são usados em testes. Modelos computacionais detectam e marcam de antemão moléculas possivelmente tóxicas ou provavelmente ineficazes, permitindo que os pesquisadores avaliem melhor se vale a pena testá-las in vivo.

A toxicidade é um fator importante para o descobrimento de novas drogas, uma vez que não é desejável utilizar uma molécula que diminua a pressão arterial mas que também causa falha dos rins, por exemplo. Recentemente, o uso de modelos de aprendizado de máquina para a triagem de drogas emergiu com uma nova vertente.

Mas o que aconteceria se, em vez de serem usadas para evitar moléculas tóxicas, as máquinas fossem treinadas para descobrir combinações cada vez mais tóxicas? Foi isso que cientistas da universidade de Stanford descobriram que seu algoritmo poderia fazer. A princípio, eles projetaram um modelo computacional com o objetivo de encontrar novos fármacos não tóxicos para doenças humanas. Segundo os autores, o modelo criado penaliza (descarta) a toxicidade e recompensa (seleciona) moléculas que poderiam ajudar no tratamento de doenças. O que os cientistas fizeram em seguida foi inverter a lógica do algoritmo, usando a mesma abordagem para projetar moléculas novas, mas agora orientando o modelo para recompensar a toxicidade.

Resultado? Em menos de seis horas, o modelo foi capaz de gerar e prever a estrutura de mais de 40 mil moléculas supostamente tóxicas. Os autores relatam que o algoritmo gerou algumas moléculas tóxicas já existentes e conhecidas, como é o caso do agente nervoso VX, uma das armas químicas mais tóxicas desenvolvidas durante o século 20.

Hollywood e assassinatos

O VX foi inicialmente descoberto em pesquisas de pesticidas e depois foi aprimorado para uso militar. Já foi retratado no filme “A Rocha”, trama que gira em torno de um ataque terrorista planejado da ilha de Alcatraz, na costa de São Francisco. Para impedir o desastre que mataria milhares de pessoas, o FBI pede a ajuda do químico Stanley Goodspeed (Nicolas Cage) e do prisioneiro federal e ex-agente do SAS John Mason (Sean Connery).

Apesar de não ter o aspecto verde e de gás volátil, os efeitos neurológicos do VX são bem representados no filme – tirando a parte de derreter a cara das pessoas. Por ser uma neurotoxina, o agente inibe a ação de uma enzima que permite o relaxamento dos músculos. Como o diafragma é um músculo, as vítimas do VX morrem asfixiadas, incapazes de respirar, pois todos os músculos permanecem continuamente contraídos. O caso real mais recente de uso do VX foi no assassinato do norte-coreano Kim Jong-nam, irmão por parte de pai do ditador norte-coreano Kim Jong-un. Kim Jong-nam foi atacado no aeroporto de Kuala Lumpur (Malásia) em fevereiro de 2017 por duas mulheres que esfregaram em sua cara um possível derivado de VX. O irmão do ditador morreu pouco tempo depois. A Coreia do Norte e o irmão negam envolvimento.

 

Cuidados com o que deseja

Assim como uma boa meta-análise (técnica que integra os resultados de dois ou mais estudos independentes sobre uma mesma questão de pesquisa) depende da qualidade dos estudos que são considerados, os modelos de aprendizagem de máquina são apenas tão bons quantos os dados que são utilizados para “treiná-los”. Um modelo treinado para reconhecer rostos de pessoas vai aprender a reconhecer formas e feições segundo o banco de dados fornecido. Ou seja, no início do treino os programadores informam deliberadamente qual foto é o rosto de uma pessoa e qual foto não é o rosto de uma pessoa. Em seguida, o modelo recebe um banco de dados com centenas de milhares de fotos de rostos de pessoas e outras fotos aleatórias. O modelo estima o que é um rosto, com base no treinamento inicial. Conforme o modelo acerta ou erra, os programadores ajustam o algoritmo para que a quantidade de erros diminua.

O problema é que esses bancos de dados podem ser enviesados. Um exemplo que ganhou notoriedade foi o algoritmo utilizado por carros autônomos (aqueles que não precisam de motoristas). Uma das funções básicas que esses carros precisam apresentar é a de frear ou desviar de pedestres. O fato é que um estudo mostrou que a um dos modelos utilizados nos testes dos carros autônomos teve a acurácia diminua em 5% quando foi apresentado ao algoritmo imagens de pedestres com tons de pele mais escuros. Isso significa que o modelo foi treinado com um banco de dados onde havia poucas imagens de pessoas com tons de pele escuros. O resultado pode ser o atraso da frenagem de um carro autônomo em alguns milissegundos, que podem ser cruciais para a vida da pessoa. Não importa o quão bom o modelo seja. Ele pode acertar 99% das vezes que há um pedestre na rua. Se o 1% de falha for sistemática por conta da base de dados utilizada, ou seja, se o modelo errar de forma não aleatória, esse é um péssimo modelo. Modelos também são vulneráveis a vieses mais sutis. Dois casos citados no livro “Calling Bullshit”, de Carl Bergstrom e Jevin West, são exemplares: num deles, um modelo treinado para identificar fotos de cães siberianos na verdade havia aprendido a “acertar” identificando a presença de neve na paisagem atrás do animal; outro, supostamente capaz de separar criminosos de pessoas honestas, na verdade havia aprendido a identificar sorrisos (as fotos de criminosos da base de dados tinham vindo todas de fichas policiais – onde todo mundo aparece de cara fechada).

E isso nos leva de volta ao caso do modelo que conseguiu prever a formação de mais de 40 mil moléculas supostamente tóxicas. Os próprios autores relatam no artigo que muitas dessas moléculas são falsos positivos (previstos pelo erro esperado do modelo) e por erros existentes na própria base de dados. E temos que lembrar que não basta saber a estrutura da molécula, senão o que impediria os autores de já terem descoberto drogas para diversas outras doenças que afetam os humanos? Alzheimer? Fácil, seis horas de programa rodando possivelmente identificariam dezenas de estruturas promissoras. Não é trivial projetar a síntese de drogas com tanta facilidade, logo também é pouco provável que consigamos projetar compostos horríveis em um clique. Assim como há considerações práticas na descoberta de medicamentos que restringem seu uso, existem fatores limitantes para a produção de compostos tóxicos, como por exemplo a estabilidade no armazenamento, volatilidade (ou falta dela), persistência no meio ambiente, matéria-prima, etc.

 

Nitazoxanida

Em um estudo publicado em meados de 2020, modelos de IA desenvolvidos por cientistas de Taiwan previram 38 medicamentos com potencial de inibição do SARS-CoV (o original, não o “2”). Na lista constava a nitazoxanida, um antiparasitário que inibe o desenvolvimento e a proliferação de uma variedade de protozoários, vermes, bactérias e vírus. A nitazoxanida também foi detectada por, pelo menos, dois outros modelos com o mesmo propósito, mas desenvolvidos por grupos de cientistas distintos.

Somem isso ao fato de que, no início de 2020, um estudo conduzido por cientistas chineses e publicado na prestigiada revista Cell Research (grupo Nature) alertava para ação inibitória da nitazoxanida contra o SARS-CoV-2 em culturas de células de rins de macacos. Triagem por computador conduzida no Brasil também apontou a molécula como "promissora". 

O cenário descrito foi suficiente para que, por exemplo, o Ministério da Ciência, Tecnologia e Inovações (MCTI) destinasse R$ 5 milhões para testar a droga em um ensaio com pessoas. O assunto já foi tratado na RQC aqui, aqui e aqui.

Hoje, sabemos que a nitazoxanida não é melhor do que um placebo para tratar pessoas acometidas pela COVID-19. Embora alguém possa argumentar “mas na época era o que sabíamos, e os estudos estavam aí para mostrar o potencial das drogas”, o grande problema é que quase tudo foi atropelado durante a pandemia: a ética, o método científico e a análise racional dos resultados preliminares.

machines

O atropelo foi muitas vezes defendido com a desculpa de que não era possível respeitar completamente o método científico, dada a urgência que a pandemia trazia. Vacinas desenvolvidas em menos de um ano estão aí para provar que essa conversa não cola. Tanto os modelos de IA quanto os ensaios em cultura de células produzem resultados preliminares e as respostas dependem, principalmente, da qualidade dos dados iniciais.

 

Primeiro degrau

No livro “The Book of Why”, o cientista da computação Judea Pearl e o escritor Dana Mackenzie apresentam o modelo da “escada da casualidade”. A escada possui três degraus e serve para ilustrar os três níveis de raciocínio causal propostos pelos autores. O primeiro nível é denominado “associação”, que discute associações entre variáveis distintas. Perguntas como “a molécula ‘Z’ está associada com uma alta toxidade?” pode ser respondida neste nível.

No entanto, a causalidade não pode ser invocada aqui. Um exemplo de raciocínio neste primeiro nível é a observação de que um galo cantando está associado ao nascer do Sol. Todavia, esse tipo de raciocínio não pode descrever relações causais. Não podemos dizer que o nascer do Sol faz o galo cantar, ou que é o galo o responsável pelo Sol nascer. Logo, também não podemos afirmar que a molécula Z é de fato tóxica. Muitas das ferramentas estatísticas do início do século 20, como correlação e regressão, operam nesse nível.

O segundo degrau da escada da causação é a “intervenção”. O raciocínio neste nível responde a perguntas do tipo “se eu fizer a intervenção X, como isso afetará a probabilidade do resultado Y?”. Por exemplo, a pergunta “se eu tomar aspirina, minha dor de cabeça vai passar?” existe no segundo nível da escada da causalidade. Esse tipo de raciocínio invoca causalidade e pode ser usado para investigar questões mais a fundo do que o raciocínio do primeiro degrau.

O terceiro degrau da escada de causalidade é rotulado de “contrafactual” e envolve responder a perguntas sobre o que poderia ter sido, se as circunstâncias fossem diferentes. Tal raciocínio invoca causalidade em maior grau do que o nível anterior. Um exemplo de pergunta contrafactual é do tipo “Será que foi a aspirina que curou minha dor de cabeça? E se eu não tivesse tomado?”.

Como os próprios autores do livro comentam, modelos de aprendizagem de máquina utilizam correlações e regressões para estimar resultados, portanto ainda estão no primeiro degrau de casualidade. Resultados como os apresentados pelos cientistas de Stanford deveriam ser sim levados em consideração, mas com parcimônia e sabendo das limitações que os modelos de aprendizagem de máquina trazem.

E é sempre bom lembrar que os modelos são tão bons quanto os dados utilizados para treiná-los. Existe uma enorme lacuna, ainda não superada, entre sair do modelo preditivo in silico e sintetizar a molécula no laboratório. Já tivemos moléculas bem piores sendo produzidas sem a necessidade de aprendizado de máquinas, como o próprio VX e o CFC (clorofluorcarbonos), gás que já foi utilizado em larga escala em geladeiras e que é capaz de degradar a camada de ozônio. No caso de muitas delas é como o agente Stanley Goodspeed disse em A Rocha: “É uma daquelas coisas que gostaríamos de poder desinventar”. Quanto aos algoritmos geradores de moléculas supertóxicas, é mais uma discussão ética que deve acontecer na comunidade acadêmica, mas sem o alarde causado pelo artigo de Stanford.

 

Luiz Gustavo de Almeida é doutor em microbiologia e atual coordenador nacional do Pint of Science no Brasil

Sua Questão

Envie suas dúvidas, sugestões, críticas, elogios e também perguntas para o "Questionador Questionado" no formulário abaixo:

Ao informar meus dados, eu concordo com a Política de Privacidade.
Digite o texto conforme a imagem

Atendimento à imprensa

11 95142-8998 

11 95142-7899