Caros seguidores, hoje retomo minhas atividades com esse blog, após uma viagem maravilhosa ao mundo antigo da civilização grega. Vejam uma pequena amostra com uma vista na ilha de Santorini, uma pequena escultura em ouro feita há 5 mil anos e a cabeça da medusa em mármore encontrada no oráculo de Apolo em Didima (concorrente direto do oráculo de Delfos) e foto das ruinas da famosa biblioteca de Celso (sim, biblioteca para se estudar e debater documentos preciosos, construída há mais de 2000 anos) na cidade grega de Éfeso (a segunda maior cidade na época do império romano, atrás apenas de Roma).
Durante essa viagem vocês puderam ler ou reler sobre os pilares da integridade científica veiculados com todo o cuidado e com a eficiência de sempre, pela Adriana e a Andreza, da 2xMKT Redes Sociais.
No contraponto, as novidades na área de inteligência artificial não param de aparecer, numa velocidade que deixa a gente até meio sem fôlego! Ressalto aqui algumas que impactam diretamente nas questões da integridade científica.
A revista Nature decidiu vetar o uso de IA generativo em imagens (Why Nature will not allow the use of generative AI in images and videos, em 8 de junho de 2023) por considerar ser esta uma questão de integridade científica, consentimento, privacidade e proteção da propriedade intelectual. Os editores se propõem a manter essa proibição até que as leis nos diversos países tenham definido o que pode e o que não pode referente a esses quesitos.
Os países e sociedades têm se preocupado de forma crescente com essas questões. Um exemplo são as recomendações da Academia Brasileira de Ciências, documento elaborado recentemente e que contou com a participação do amigo e pesquisador, Helder Nakaya, do Hospital Israelita Albert Einstein. Outros exemplos são a cartilha preparada pelo Centro Hastings (Editors’ Statement on the Responsible Use of Generative AI Technologies in Scholarly Journal Publishing, https://doi.org/10.1002/hast.1507) e as Recomendações para o uso responsável de chatbots (Recommendations for ethical use of AI chatbots in publications, https://thepublicationplan.com/2023/11/14/recommendations-for-ethical-use-of-ai-chatbots-in-publications/, novembro de 2023) elaborado pelo The Publication Plan, que divulga notícias referentes a publicações da área médica. Estes são apenas alguns dos muitos exemplos.
Por outro lado, pós-doutores têm abraçado o uso rotineiro dos aplicativos generativos do tipo do ChatGPT e outros para aperfeiçoar seus textos (63%), gerar e/ou checar códigos (56%), fazer resumos da literatura (29%), preparar manuscritos e melhorar protocolos experimentais (How ChatGPT is transforming the postdoc experience, Nature em 19 de outubro de 2023). E o grupo do H Nakaya com vários pós-doutores publicou recentemente dicas para melhor uso do ChatGPT (https://doi.org/10.1371/journal.pcbi.1011319).
Fofocas de IA? Podem seguir Zain Kahn do Superhuman. A newsletter diária traz dicas, novidades e debates sobre IA e o impacto na sociedade, na produtividade e na ciência (https://www.joinsuperhuman.ai/ ).
E por fim, leituras para pensarmos sobre IA, ChatGPT e as impliacações éticas para a nossa vida: a opinião de Joseph Weizenbaum, o inventor do primeiro chatbot (Weizenbaum’s nightmares: how the inventor of the first chatbot turned against AI; https://www.theguardian.com/technology/2023/jul/25/joseph-weizenbaum-inventor-eliza-chatbot-turned-against-artificial-intelligence-ai) e uma matéria que detalha o debate com o filósofo Yuval Noah Harari (https://www.lepoint.fr/sciences-nature/yuval-harari-sapiens-versus-yann-le-cun-meta-on-artificial-intelligence-11-05-2023-2519782_1924.php#11)
Comments