sexta-feira, 24 de abril de 2026

Diretrizes de periódicos sobre o uso de IA generativa


Nas décadas de 1980 e 1990, quando os computadores pessoais começaram a fazer parte do dia a dia, rapidamente eles foram incorporados aos trabalhos acadêmicos, sejam a escrita de artigos, geração de gráficos, tabulação de grandes conjuntos de dados ou simulação computacional. Já não fazia sentido datilografar o seu trabalho em uma máquina de escrever mecânica. Hoje, o mesmo fenômeno está acontecendo em relação à IA generativa, entretanto, as implicações éticas são bem mais complicadas. Por isso, precisamos ter guias de uso ético da IA na pesquisa acadêmica. 

Não sendo possível simplesmente 'proibir' o uso da IA generativa, as editoras de periódicos científicos estão se adequando a esses novos tempos e desafios. De forma geral, as diretrizes dos periódicos convergem em dois pontos principais: ferramentas de IA generativa não podem ser consideradas autoras e seu uso deve ser declarado de forma transparente no manuscrito.

1. Posições gerais (COPE, ICMJE, grandes editoras)

COPE (Committee on Publication Ethics)

  • IA não pode ser listada como autora, pois não assume responsabilidade ética ou legal pelo trabalho.
  • Autores devem declarar como e quais ferramentas de IA foram usadas (coleta/análise de dados, redação, figuras etc.).

ICMJE (International Committee of Medical Journal Editors)

  • Considera aceitável o uso de IA como assistente de escrita, desde que o uso seja transparente, o conteúdo seja verificado pelos autores e a IA não figure como autora.
  • Destaca responsabilidades dos autores: escolher ferramentas confiáveis, verificar exatidão, checar plágio, considerar vieses e seguir as diretrizes específicas do periódico.

Grandes editoras (Elsevier, Springer Nature, Wiley)

  • Elsevier: orienta sobre o “uso responsável” de IA, equiparando-a a suporte editorial avançado; enfatiza transparência e responsabilidade integral dos autores sobre o conteúdo final.
  • Springer Nature: não permite IA generativa em pareceres de revisão (por questões de sigilo e confiabilidade); para autores, exige que o uso de IA seja descrito no manuscrito e nunca como autoria.
  • Wiley: divulgou diretrizes específicas para autores, focando em manter a voz autoral, garantir precisão e evitar problemas de propriedade intelectual e privacidade ao usar IA generativa.

2. Exemplos de políticas de periódicos

Exemplo 1 – Periódico que segue COPE

Alguns periódicos deixam a política de IA bastante explícita em páginas de “AI Policies” ou “Editorial Policies”:

  • “Em conformidade com o COPE, ferramentas de IA não podem ser listadas como autoras.”
  • “Autores que utilizarem ferramentas como ChatGPT, Gemini, Claude etc. devem declarar esse uso, indicando a finalidade (revisão de linguagem, geração de rascunhos, análise de dados).”

Exemplo 2 – Revista sobre controle de infecção (CJIC)

  • IA só pode ser usada para melhorar legibilidade e linguagem, com supervisão humana.
  • Exige uma declaração explícita no manuscrito, por exemplo: “Where authors use generative AI and AI-assisted technologies in the writing process, authors should only use these technologies to improve readability and language… Authors must disclose the use of generative AI by adding a statement within their manuscript.”

Exemplo 3 – Artigo de reflexão sobre IA em publicações

Um artigo em Annali dell'Istituto Superiore di Sanità resume assim a posição recomendada:

  • IA pode ser usada para ideação e escrita, desde que seja claramente creditada, e que os autores humanos assumam plena responsabilidade pelo conteúdo gerado ou revisado com auxílio da ferramenta.

3. Como declarar o uso de IA generativa no artigo

3.1. Não listar a IA como autora

Autoria é restrita a pessoas que atendem aos critérios clássicos: contribuição substancial, revisão crítica, aprovação da versão final e responsabilidade pelo trabalho como um todo. Ferramentas de IA não atendem a esses requisitos e, portanto, não podem ser autoras nem coautoras.

3.2. Indicar o uso em seção apropriada

Os locais mais comuns para declarar o uso de IA são:

  • Métodos, quando a IA foi usada em coleta, processamento ou análise de dados.
  • Agradecimentos ou Contribuições dos autores, quando a IA atuou como suporte de escrita ou organização do texto.
  • Seção específica “Uso de IA” ou “AI-assisted tools”, quando o periódico possui instruções formais para isso.

3.3. Exemplos de declarações de uso (modelos)

a) Uso para revisão de linguagem/estilo

Exemplo de texto que pode ser adaptado:

Ferramentas de IA generativa (por exemplo, ChatGPT, modelo GPT‑x) foram utilizadas apenas para auxiliar na revisão de linguagem e na clareza do manuscrito. Todo o conteúdo técnico, interpretativo e as conclusões foram produzidos e verificados pelos autores.

b) Uso para brainstorming e estruturação

Uma ferramenta de IA generativa (ChatGPT, GPT‑x) foi empregada para auxiliar na organização de tópicos e na sugestão de reformulações textuais durante a fase de redação. As ideias, interpretações e conclusões apresentadas são de responsabilidade exclusiva dos autores.

c) Uso em análise de dados (categorização de respostas abertas etc.)

Um modelo de linguagem de grande porte (LLM) foi utilizado para auxiliar na categorização inicial de respostas abertas e na geração de rascunhos de resumos temáticos. Os autores revisaram manualmente todas as categorias, confirmaram os códigos finais e verificaram a exatidão dos resumos.

3.4. Assumir responsabilidade e verificar conteúdo

  • Os autores devem deixar claro que revisaram, editaram e aprovam todo o conteúdo, reconhecendo que a IA pode produzir erros factuais, vieses e até referências inexistentes.[web:145][web:147][web:149]
  • É recomendável combinar a IA com verificações de plágio, checagem manual de dados e leitura crítica por coautores e revisores internos.

4. Boas práticas sintetizadas

Combinando COPE, ICMJE e políticas de grandes editoras, emergem algumas boas práticas gerais para autores que desejam usar IA generativa em artigos científicos:

  • Transparência: sempre declarar qual ferramenta foi usada (por exemplo, ChatGPT, Gemini, Claude), qual versão (se relevante) e para qual finalidade específica (revisão de texto, formatação, análise de dados, geração de ideias).
  • Limitação de escopo: preferir o uso de IA como suporte (linguagem, clareza, organização, brainstorming) e evitar que a ferramenta produza dados, resultados ou referências sem verificação rigorosa.
  • Verificação humana: checar factualidade, originalidade (plágio) e possíveis vieses do texto ou das análises sugeridas pela IA; não confiar cegamente na saída da ferramenta.
  • Conformidade com o periódico: ler e seguir cuidadosamente a política específica da revista-alvo, pois algumas áreas (especialmente medicina e áreas sensíveis) têm restrições mais rigorosas ao uso de IA generativa.

5. Entretanto ...

"Paradoxo da Transparência": há um aumento de "frases torturadas" (erros típicos de IA que não foram revisados) em artigos que não declararam o uso. Termos como "As a large language model" ou palavras excessivamente floridas como "commendable" e "intricate" aparecem com frequência em artigos não declarados, o que tem levado editores a serem mais rigorosos com softwares de detecção de IA.

6. Um exemplo prático:

Fonte aqui.


Declaração de uso de Inteligência Artificial

Esta postagem foi elaborada com apoio de ferramentas de IA generativa. O conteúdo textual (estrutura, revisão de linguagem e organização das ideias) contou com contribuições da IA Perplexity, alimentada pelo modelo GPT‑5.1, sempre sob curadoria, edição e validação dos autores humanos.

Além disso, utilizou-se o modelo Gemini para gerar e incluir a imagem ilustrativa na postagem do blogue. Todas as decisões sobre seleção, adaptação e interpretação do conteúdo, bem como a responsabilidade final pelo texto e pela imagem, são exclusivamente do autor humano.


Referências

  1. COPE – Committee on Publication Ethics. COPE Position Statement on Authorship and AI Tools. 2023. Disponível em: https://jpl-nasa.libguides.com/blog/Authorship-and-AI-Tools . Acesso em: 24 abr. 2026.
  2. THINKSCIENCE. COPE position statement on Artificial Intelligence (AI) tools. 2024. Disponível em: https://thinkscience.co.jp/en/COPE-position-statement-on-AI . Acesso em: 24 abr. 2026.
  3. LARIVIÈRE, V. et al. Responsible Use of Generative Artificial Intelligence for Research and Scholarly Publishing. 2024. Disponível em: https://pmc.ncbi.nlm.nih.gov/articles/PMC11420400/ . Acesso em: 24 abr. 2026.
  4. ELSEVIER. Generative AI: New policies, opportunities, and risks. Researcher Academy, 2022. Disponível em: https://researcheracademy.elsevier.com/writing-research/fundamentals-manuscript-preparation/generative-ai-new-policies-opportunities-risks . Acesso em: 24 abr. 2026.
  5. NATURE PORTFOLIO. Artificial Intelligence (AI) – editorial policies. Disponível em: https://www.nature.com/nature-portfolio/editorial-policies/ai . Acesso em: 24 abr. 2026.
  6. WILEY. Wiley Releases AI Guidelines for Authors. Press Release, 12 mar. 2025. Disponível em: https://newsroom.wiley.com/press-releases/press-release-details/2025/Wiley-Releases-AI-Guidelines-for-Authors/default.aspx . Acesso em: 24 abr. 2026.
  7. AESS PUBLICATIONS. AI Policies – AESS Publications. Disponível em: http://www.aessweb.com/journals/5051/info/ai-policies . Acesso em: 24 abr. 2026.
  8. JURNAL PENELITIAN DAN PENGKAJIAN ILMU PENDIDIKAN (e-Saintika). AI Policies. 2024. Disponível em: https://journal-center.litpam.com/index.php/e-Saintika/ai-policies . Acesso em: 24 abr. 2026.
  9. ANNALI DELL’ISTITUTO SUPERIORE DI SANITÀ. Artificial intelligence in scholarly publishing: opportunities and challenges. 2023. Disponível em: https://annali.iss.it/index.php/anna/article/view/1627 . Acesso em: 24 abr. 2026.
  10. CANADIAN JOURNAL OF INFECTION CONTROL (CJIC). AI Scientific Writing – Journal Policy. 2024. Disponível em: https://www.cjic.ca/about/journal-policies/ai-scientific-writing . Acesso em: 24 abr. 2026.

Nenhum comentário:

Postar um comentário