Recentemente tem pipocado aqui e ali notícias sobre novas ferramentas usando algoritmos de inteligência artificial voltados para implementação e controle das boas práticas na pesquisa. Seguem aqui alguns exemplos notáveis.
Uma nova plataforma aberta incluindo software de detecção de imagens (SILA: a system for scientific image analysis, Scientific Reports 2022, https://doi.org/10.1038/s41598-022-21535-3), desenvolvido com a estreita colaboração de brasileiros do Instituto de Computação da UNICAMP, é, nas palavras dos próprios autores, o primeiro sistema a usar processamento por softwares e intervenção humana, encadeados, para definir uso ou mau uso de imagens. Os exemplos no artigo são emblemáticos, lembrando que 2/3 ou mais dos casos de má-conduta detectados na literatura referem-se à manipulação de imagens. O processamento se inicia com um arquivo em pdf e sistemas automatizados de detecção, passa pela decisão de um expert e termina num banco de dados para posterior reutilização.
Papermill Alarm: Adam Day, diretor da empresa Clear Skies, desenvolveu este produto que vasculha toda a literatura disponível e informa quais podem se originar dos papermills, aquelas editoras que fabricam artigos para publicação mediante pagamento (https://doi.org/10.1038/d41586-022-02997-x). A ferramenta usa um algoritmo de deep learning a partir da linguagem usada em artigos que sabidamente vieram dessas fontes fraudulentas.
Recente bomba na literatura trata de fraude e falsificação por pesquisadores e por uma Biotech (Cassava Sciences) na pesquisa de Doença de Alzheimer. De novo, o ponto de partida foi a análise de imagens. Os detalhes da investigação e as dúvidas que ainda persistem estão relatadas na Science News (Potential fabrication in research images threatens key theory of Alzheimer’s disease, https://doi.org/10.1126/science.ade0209) e expõem com clareza brutal os problemas e as consequências deste tipo de conduta: a frustração dos pacientes, o desperdício de enormes somas de dinheiro e o desvio de objetivos e perda de tempo que acarreta na vida dos pesquisadores.
E, por fim, uma palavra de atenção num editorial da Nature que relata as preocupações dos pesquisadores Kappor e Narayan ( https://www.nature.com/articles/d41586-022-02035-w): Could machine learning fuel a reproducibility crisis in science?). O editorial tece comentários sobre o uso de ferramentas de inteligência artificial e machine learning por pesquisadores despreparados para usar, calibrar e avaliar os próprios softwares que estão usando, levando à falta de replicação dos resultados obtidos. Em especial, na área de diagnóstico por imagem isso pode configurar um sério problema, pois envolve a vida e as expectativas das pessoas.
Convido a todos assistirem entrevista (https://www.youtube.com/watch?v=M6bKQxqyH9s) dada a FAPESP por Nicholas Steneck, autor do imperdível On Being a Scientist, por ocasião do III BRISPE, em 2014. Seus comentários são ainda mais pertinentes passados todos esses anos!
Comments