segunda-feira, 21 de outubro de 2024

Sobre o uso de 'IA' na escrita de artigos científicos: algumas considerações éticas.


Como ter certeza que um texto acadêmico não foi gerado na sua totalidade ou parcialmente por uma ferramenta de escrita como o GPT (Generative Pre-trained Transformer)? O uso de inteligência artificial (IA) na escrita de artigos científicos está cada vez mais comum e levanta uma série de questões éticas que devem ser cuidadosamente analisadas, pois envolve tanto a integridade da pesquisa quanto as responsabilidades dos autores. As principais preocupações éticas relacionadas ao uso de IA nesse contexto são apontadas abaixo.

1. Autoria e responsabilidade

Uma das questões mais fundamentais diz respeito à autoria. A escrita de artigos científicos envolve a atribuição de crédito e responsabilidade pelas ideias e resultados apresentados. Se uma IA é usada para redigir partes ou a totalidade de um artigo, surge a questão de quem é o autor legítimo. A IA não possui consciência nem responsabilidade moral ou intelectual; portanto, se a IA comete erros, quem é responsável por esses erros? A integridade científica requer que os autores assumam total responsabilidade pelos conteúdos de suas publicações.

  • Desafios: Autores que utilizam IA precisam deixar claro o nível de contribuição humana versus automatizada no texto. Omissões a respeito do uso de IA podem levar a equívocos sobre a originalidade ou autoria do artigo.

2. Originalidade e plágio

Muitas ferramentas de IA que auxiliam na escrita são treinadas em grandes volumes de textos existentes, levantando preocupações sobre plágio. A IA pode gerar trechos de texto que se assemelham a outros trabalhos sem atribuição apropriada. Isso pode comprometer a originalidade da pesquisa e violar padrões éticos da publicação acadêmica.

  • Desafios: verificar se o texto produzido por IA não se trata de um plágio indireto pode ser difícil, especialmente se as fontes das quais a IA aprendeu não forem transparentes. Autores precisam garantir que os padrões de originalidade sejam mantidos, o que pode exigir revisões manuais rigorosas do que a IA gera.

3. Transparência

Outro ponto crucial é a transparência no uso de IA. É ético que os autores revelem se utilizaram IA na redação ou na estruturação de seu artigo? Muitos argumentam que sim, pois a colaboração humana e a máquina podem influenciar o conteúdo e a clareza da pesquisa. Esconder o uso de IA pode ser visto como uma violação da confiança no processo de revisão por pares.

  • Desafios: decidir até que ponto e de que forma informar o uso de IA é complexo. Pode ser necessário criar diretrizes específicas que exijam a explicitação de onde a IA foi usada, por exemplo, na geração de rascunhos, na revisão de texto ou na análise de dados.

4. Qualidade e precisão científica

Embora as IAs avançadas sejam capazes de gerar texto coerente e estruturado, elas não garantem a precisão científica. O uso de IA para redigir artigos pode resultar em erros factuais ou interpretações imprecisas de dados científicos, especialmente se a IA não estiver adaptada para entender nuances técnicas. Isso pode prejudicar a qualidade da pesquisa e desinformar a comunidade científica.

  • Desafios: garantir que os artigos escritos com a ajuda de IA mantenham o rigor científico exige revisão humana constante. A IA pode fornecer resultados coerentes na linguagem, mas isso não assegura a exatidão do conteúdo.

5. Viés e discriminação

Os sistemas de IA são treinados em grandes volumes de dados, que podem refletir vieses presentes nesses conjuntos de dados. Se uma IA é usada para gerar texto acadêmico, existe o risco de que esses vieses sejam incorporados nos artigos, o que pode comprometer a imparcialidade da pesquisa e reproduzir preconceitos de gênero, raça, ou outras formas de discriminação.

  • Desafios: autores e pesquisadores precisam estar cientes dos potenciais vieses nas ferramentas de IA que utilizam e tomar medidas para mitigar esses problemas. Isso inclui a seleção cuidadosa de dados para treinamento e a revisão crítica dos textos gerados pela IA.

6. Impacto na educação e no treinamento de pesquisadores

Outro aspecto ético importante é o impacto que o uso de IA na escrita pode ter na formação de novos pesquisadores. Se estudantes e jovens cientistas dependem excessivamente de IA para redigir seus artigos, eles podem não desenvolver habilidades críticas de escrita científica e pensamento analítico, que são fundamentais para a carreira acadêmica.

  • Desafios: é importante equilibrar o uso de ferramentas de IA com o desenvolvimento das competências tradicionais de redação científica, para que os pesquisadores não se tornem excessivamente dependentes dessas tecnologias e percam habilidades essenciais.

7. Manipulação de dados e fraude científica

Há também o risco de que ferramentas de IA sejam usadas para manipular dados ou criar narrativas convincentes, mas cientificamente infundadas. Isso pode resultar em fraudes científicas mais sofisticadas, difíceis de detectar pelos revisores. A geração automática de textos pode ser usada para mascarar ou distorcer informações.

  • Desafios: é crucial que os revisores e editores de periódicos desenvolvam estratégias para identificar fraudes potenciais relacionadas ao uso de IA e garantam que os dados subjacentes a uma pesquisa sejam devidamente analisados e interpretados.

Considerações finais

O uso de IA na escrita de artigos científicos oferece benefícios, como a automação de tarefas repetitivas e a aceleração do processo de redação. No entanto, as questões éticas que acompanham seu uso são profundas e complexas, exigindo que autores, instituições e editores estabeleçam diretrizes claras. Transparência, responsabilidade, originalidade e a manutenção da integridade científica devem ser princípios orientadores em qualquer uso de IA no contexto acadêmico.

Algumas referências

ADAMS, C. et al. Ethical principles for artificial intelligence in K-12 education. Computers and Education: Artificial Intelligence, Amsterdã, v. 4, 2023. Disponível em: <https://doi.org/10.1016/j.caeai.2023.100131>. Acesso em: 21 de out. de 2024.

CAROBENE, Anna et al. Rising adoption of artificial intelligence in scientific publishing: evaluating the role, risks, and ethical implications in paper drafting and review process. Clinical Chemistry and Laboratory Medicine (CCLM), v. 62, n. 5, p. 835-843, 2024.

GULERIA, Ankita et al. ChatGPT: ethical concerns and challenges in academics and research. The Journal of Infection in Developing Countries, v. 17, n. 09, p. 1292-1299, 2023.

JEYARAMAN, Madhan et al. ChatGPT in action: Harnessing artificial intelligence potential and addressing ethical challenges in medicine, education, and scientific research. World Journal of Methodology, v. 13, n. 4, p. 170, 2023.

LIN, Zhicheng. Why and how to embrace AI such as ChatGPT in your academic life. Royal Society open science, v. 10, n. 8, p. 230658, 2023.

NAM, Benjamin H.; BAI, Qiong. ChatGPT and its ethical implications for STEM research and higher education: a media discourse analysis. International Journal of STEM Education, v. 10, n. 1, p. 66, 2023.

Obs: esse texto foi gerado quase que integralmente com o uso do chatgpt.com.

Nenhum comentário:

Postar um comentário