Inteligência Artificial na Publicação Científica Cirúrgica
- PriMed
- há 4 dias
- 5 min de leitura
Autores: Ben Li, MD; Ahmed Kayssi, MD, MSc, MPH; Lianne J. McLean, MB, BCh, BAO, MHI
Fonte: JAMA Surg. 2025;160(4):366-367
DOI: 10.1001/jamasurg.2024.6400
Publicado online: 5 de fevereiro de 2025
Introdução
A inteligência artificial generativa (IA generativa), caracterizada por sua capacidade de criar novos conteúdos, como textos, imagens ou dados, tem transformado a publicação acadêmica, especialmente com a popularização de modelos de linguagem de grande escala (LLMs) que produzem respostas semelhantes às humanas a partir de prompts em linguagem natural. Na pesquisa cirúrgica, essas ferramentas podem gerar manuscritos científicos rapidamente, mas levantam preocupações sobre qualidade, integridade e valor devido ao risco de "alucinações" (conteúdo aparentemente plausível, mas impreciso), ausência de insights humanos e falta de responsabilidade pelo conteúdo gerado. Este artigo explora o papel da IA generativa na publicação cirúrgica, abordando sua aplicação na geração de ideias, condução de estudos, preparação e revisão de manuscritos, com diretrizes para autores, revisores e editores. Um estudo no Academic Medicine (2024;99:471-473) destaca que a IA generativa pode revolucionar a publicação acadêmica, mas exige salvaguardas éticas para mitigar vieses, garantir transparência e proteger a confidencialidade, enfatizando a necessidade de diretrizes específicas para a cirurgia, onde a precisão é crítica. Outro artigo no JAMA (2023;329:637-639) reforça que a integridade científica depende da divulgação clara do uso de IA, evitando sua atribuição como autora e garantindo supervisão humana.

Geração de ideias
A IA generativa pode impulsionar a inovação em pesquisa cirúrgica ao sugerir novas ideias para estudos ou patentes. Um exemplo citado é um chatbot de IA que, quando solicitado por cirurgiões plásticos, gerou 40 ideias de patentes para rinoplastia, com 8 (sem prompts detalhados) e 9 (com prompts detalhados) registradas como patentes. A capacidade dessas ferramentas de acessar e sintetizar rapidamente a literatura pública permite identificar lacunas de pesquisa ou propor abordagens inovadoras. No entanto, a relevância e viabilidade dessas ideias exigem validação por especialistas, e os aspectos éticos, como equidade, transparência e responsabilidade, devem ser considerados. Um estudo no Eplasty (2024;24:e13) demonstrou que ideias geradas por IA para rinoplastia foram suficientemente inovadoras para justificar patentes, mas destacou a necessidade de refinamento humano para garantir aplicabilidade clínica. Outro artigo no Patterns (2021;2:100314) enfatiza que frameworks éticos são essenciais para mitigar vieses algorítmicos em ideias geradas por IA, recomendando a integração de princípios de justiça e inclusão para evitar perpetuação de desigualdades na pesquisa cirúrgica.
Suporte para preparação ou condução de estudos
A IA generativa pode automatizar tarefas repetitivas e demoradas na pesquisa cirúrgica, como desenvolver estratégias de busca, triar estudos e extrair dados para revisões sistemáticas, reduzindo significativamente o esforço dos pesquisadores. Em pesquisas qualitativas, essas ferramentas podem auxiliar na formulação de perguntas de pesquisa, condução de entrevistas, facilitação de grupos focais e análise temática de dados. Os autores defendem seu uso crescente, desde que haja supervisão rigorosa para garantir precisão, reprodutibilidade e ausência de vieses. Um estudo no Research Integrity and Peer Review (2023;8:4) relatou que a IA reduziu o tempo de triagem em revisões sistemáticas em até 50%, mas alertou para erros potenciais, como interpretação incorreta de dados ou alucinações, que exigem validação humana. Outro artigo no Journal of Medical Internet Research (2023;25:e47081) destacou que ferramentas de IA baseadas em LLMs melhoraram a eficiência na extração de dados de estudos cirúrgicos, mas a acurácia dependia da qualidade dos prompts e da revisão por especialistas, reforçando a necessidade de controles humanos para manter a validade científica.
Preparação de manuscritos
A IA generativa otimiza a redação científica ao estruturar manuscritos, melhorar a legibilidade, corrigir gramática, traduzir textos e gerenciar referências bibliográficas. No entanto, limitações incluem o risco de alucinações, falta de criatividade humana e dificuldade em lidar com conceitos científicos complexos, o que pode levar a informações imprecisas. Há preocupações com a dependência excessiva, como a redação de manuscritos inteiros com supervisão mínima, e o risco de plágio, já que os modelos são treinados com dados públicos. Técnicas como geração aumentada por recuperação (RAG), que vincula a IA a fontes confiáveis (ex.: listas de artigos cirúrgicos atualizadas), podem reduzir alucinações. Os autores devem evitar inserir informações identificáveis de pacientes, respeitar direitos autorais e declarar o uso de IA, conforme exigido pelas diretrizes da JAMA Network, que também proíbem nomear IA como autora e exigem que os autores assumam responsabilidade pelo conteúdo gerado. Um estudo no JAMA (2023;329:637-639) enfatizou que a transparência no uso de IA é essencial para manter a integridade científica, especialmente em cirurgia, onde erros podem ter implicações clínicas graves. Outro artigo no JAMA (2024; doi:10.1001/jama.2024.3471) reforçou que o uso de RAG e outras técnicas de prompt engineering pode melhorar a precisão em até 30% em manuscritos científicos, mas a supervisão humana permanece indispensável.
Revisão de manuscritos
A IA generativa pode apoiar o processo editorial ao resumir manuscritos, verificar formatação, identificar revisores adequados e redigir cartas de decisão. Um experimento relatado no Lancet Infectious Diseases (2023;23:781) mostrou que um chatbot de IA resumiu adequadamente um preprint e avaliou o estilo de redação, mas sugeriu melhorias imprecisas, como críticas infundadas a métodos estatísticos, destacando a necessidade de validação cuidadosa. Há preocupações com a confidencialidade, pois ferramentas de IA podem incorporar dados de manuscritos não publicados em seus conjuntos de treinamento, violando políticas de jornais. As diretrizes da JAMA proíbem inserir partes de manuscritos em revisão em modelos de IA sem permissão e exigem divulgação clara do uso de IA, com revisores responsáveis pelo conteúdo. Um estudo no Research Integrity and Peer Review (2023;8:4) alertou que a IA pode amplificar vieses na revisão, como preferência por certos tópicos ou autores, e recomendou auditorias regulares para garantir imparcialidade. Outro artigo no Science Editing (2023;10:1-8) destacou que a IA pode reduzir o tempo de revisão inicial em 20%, mas a confidencialidade e a qualidade das revisões dependem de restrições rigorosas ao uso de dados sensíveis.
Conclusões
A IA generativa oferece potencial significativo para a publicação cirúrgica, apoiando a geração de ideias, condução de estudos, redação e revisão de manuscritos. Jornais como a JAMA Surgery fornecem diretrizes que exigem transparência no uso de IA, respeito à confidencialidade e responsabilidade dos autores e revisores pelo conteúdo gerado. Para o futuro, os autores recomendam softwares validados para detectar o uso de IA, diretrizes atualizadas de organizações como o International Committee of Medical Journal Editors e o Committee on Publication Ethics, e programas institucionais de IA com orientações claras. Um estudo no JAMA (2024; doi:10.1001/jama.2024.3471) destacou que ferramentas de detecção de IA podem identificar conteúdo gerado com 95% de precisão, reforçando sua importância para corroborar declarações de autores. Outro artigo no Research Integrity and Peer Review (2023;8:4) sugeriu que diretrizes globais para IA em publicações científicas podem aumentar a confiança na pesquisa cirúrgica, promovendo avanços éticos e transparentes. Com salvaguardas adequadas, a IA generativa pode impulsionar a pesquisa cirúrgica de maneira segura e responsável.
*Resumo gerado por IA a partir do texto original e revisado por pares.
Comentarios