O debate sobre o uso da IA na produção de artigos acadêmicos

Redação • 25 de outubro de 2023

Lorem ipsum dolor sit amet, consectetur adipiscing elit

Acompanhe

    No primeiro episódio da 6ª temporada de Black Mirror, uma executiva é pega de surpresa ao ligar a televisão e descobrir que uma plataforma de streaming transformou sua vida em uma série de sucesso.

    Na distopia da Netflix, o drama da privacidade violada se torna uma investigação sobre quais direitos e responsabilidades estão envolvidos na produção. Aquela história é de quem? Da executiva? Dos produtores que levaram o drama para a tela? Da plataforma que se apropriou do roteiro? Dos fabricantes que deram vida àquela tecnologia?

    Afinal, existe plágio em um mundo que as pessoas compartilham tudo com todo mundo o tempo todo? Se sim, quem faz cópia de quem?

    Essas questões não se limitam a ficção. Pelo contrário, as ferramentas de inteligência artificial (IA) trouxeram para o mundo real muitas situações antes vistas somente em filmes e séries. E como sempre, a educação não ficou de fora.

    IA: plágio ou não?

    Há algumas semanas, uma usuária do X (antigo Twitter) compartilhou uma história para lá de intrigante. Ao escrever o trabalho de conclusão de curso, o tio dela foi acusado de plágio pelo ChatGPT. Isso porque um professor da banca alegou que o texto havia sido feito pela I A – e a própria ferramenta “dedurou” o rapaz.

    O estudante, de acordo com o relato disponível na rede social , precisou chamar uma reunião com a banca avaliadora para provar que a IA não era ferramenta de plágio. “Além de todo o sofrimento e da falsa acusação, meu tio está tendo que fazer algo que não cabe a ele: provar que o ChatGPT é falho”, relatou a dona do perfil, @carollingian.

    A história teve um desfecho feliz para o estudante. Ele conseguiu provar sua inocência mostrando que um trabalho do próprio avaliador também havia sido “dedurado” como plágio pela inteligência artificial. O TCC então foi aprovado e o rapaz conseguiu se formar.

    Dias depois de o relato viralizar, outro usuário do antigo Twitter resolveu testar a IA. Ele jogou no ChatGPT um trecho de um artigo de sua autoria que nunca passou pela ferramenta e depois perguntou quem escreveu o texto. Resultado: a plataforma disse que foi ela. Após os protestos do autor, o ChatGPT se corrigiu e disse que não era o autor do texto.

    Essas duas experiências mostram que é necessário ter cautela no momento de usar a IA na produção de trabalhos acadêmicos. Mas e quanto à revisão dos artigos? Experiências mostram que dar uma chance à ferramenta não é tão ruim assim.


    Leia mais:


    IA na revisão de textos

    O medo de que artigos criados por inteligências generativas possam ser submetidos como trabalhos acadêmicos levou muitos editores publicarem políticas de vedação no uso de IA pelos autores.

    A Springer Nature, uma das maiores editoras acadêmicas do mundo, proíbe creditar qualquer inteligência artificial como autora. Mas, se isso acontecer, ela exige a divulgação de como a ferramenta foi implementada.

    No entanto, essas políticas específicas para editores e revisores de periódicos não são seguidas na maior parte das vezes.

    O jornal The Chronicle Higher Education contatou 15 grandes editoras e as cinco que responderam disseram que a IA, quando utilizada, nunca é a única tomadora de decisão e que os editores permanecem responsáveis pela palavra final.

    Usar a inteligência artificial como revisora de texto se tornou uma tendência crescente entre os editores acadêmicos. Em um contexto em que há cada vez mais submissões de trabalhos para serem revisados, a tecnologia pode ser valiosa no dia a dia.

    Porém, muitas das ferramentas que estão no mercado são capazes de funcionar de forma autônoma, dando margem para utilização indevida na ausência de orientações claras.

    Um exemplo de como usar a IA

    Antes mesmo do surgimento do ChatGPT, a editora suíça Frontiers desenvolveu um software com essa finalidade específica. A inteligência artificial examina artigos e identifica até 20 diferentes problemas relacionados a plágio ou imagens com sinais de manipulação.

    O programa, no entanto, chamou a atenção por oferecer um serviço inovador: ele avisa quando autores, editores e revisores de um texto já assinaram juntos outros artigos. Dessa forma, é possível saber quando a proximidade pode tornar a avaliação subjetiva e configurar um conflito de interesses.

    Denominada Artificial Intelligence Review Assistant (Aira), a ferramenta está sendo utilizada no processo de revisão por pares. O propósito dela é fornecer um alerta objetivo sobre interações prévias entre quem produz e quem avalia o conhecimento.

    No fim, cabe a um juiz de carne e osso arbitrar se esses contatos anteriores afetam ou não a isenção da análise. “É necessário ter apoio tecnológico para verificar em larga escala conflitos de interesse entre autores e revisores”, disse o cientista da computação Daniel Petrariu, diretor de Desenvolvimento de Produtos da Frontiers, durante o lançamento do programa, em 2021.


    Leia mais:

    Por Redação

    Gostou deste conteúdo? Compartilhe com seus amigos!

     Categorias

    Ensino Superior

    Ensino Básico

    Gestão Educacional

    Inteligência Artificial

    Metodologias de Ensino

    Colunistas

    Olhar do Especialista

    Eventos

    Conteúdo Relacionado