Ensino SuperiorGestão educacional

O debate sobre o uso da IA na produção de artigos acadêmicos

0

No primeiro episódio da 6ª temporada de Black Mirror, uma executiva é pega de surpresa ao ligar a televisão e descobrir que uma plataforma de streaming transformou sua vida em uma série de sucesso.

Na distopia da Netflix, o drama da privacidade violada se torna uma investigação sobre quais direitos e responsabilidades estão envolvidos na produção. Aquela história é de quem? Da executiva? Dos produtores que levaram o drama para a tela? Da plataforma que se apropriou do roteiro? Dos fabricantes que deram vida àquela tecnologia?

Afinal, existe plágio em um mundo que as pessoas compartilham tudo com todo mundo o tempo todo? Se sim, quem faz cópia de quem?

Essas questões não se limitam a ficção. Pelo contrário, as ferramentas de inteligência artificial (IA) trouxeram para o mundo real muitas situações antes vistas somente em filmes e séries. E como sempre, a educação não ficou de fora.

IA: plágio ou não?

Há algumas semanas, uma usuária do X (antigo Twitter) compartilhou uma história para lá de intrigante. Ao escrever o trabalho de conclusão de curso, o tio dela foi acusado de plágio pelo ChatGPT. Isso porque um professor da banca alegou que o texto havia sido feito pela IA – e a própria ferramenta “dedurou” o rapaz.

O estudante, de acordo com o relato disponível na rede social, precisou chamar uma reunião com a banca avaliadora para provar que a IA não era ferramenta de plágio. “Além de todo o sofrimento e da falsa acusação, meu tio está tendo que fazer algo que não cabe a ele: provar que o ChatGPT é falho”, relatou a dona do perfil, @carollingian.

A história teve um desfecho feliz para o estudante. Ele conseguiu provar sua inocência mostrando que um trabalho do próprio avaliador também havia sido “dedurado” como plágio pela inteligência artificial. O TCC então foi aprovado e o rapaz conseguiu se formar.

Dias depois de o relato viralizar, outro usuário do antigo Twitter resolveu testar a IA. Ele jogou no ChatGPT um trecho de um artigo de sua autoria que nunca passou pela ferramenta e depois perguntou quem escreveu o texto. Resultado: a plataforma disse que foi ela. Após os protestos do autor, o ChatGPT se corrigiu e disse que não era o autor do texto.

Essas duas experiências mostram que é necessário ter cautela no momento de usar a IA na produção de trabalhos acadêmicos. Mas e quanto à revisão dos artigos? Experiências mostram que dar uma chance à ferramenta não é tão ruim assim.


Leia mais:


IA na revisão de textos

O medo de que artigos criados por inteligências generativas possam ser submetidos como trabalhos acadêmicos levou muitos editores publicarem políticas de vedação no uso de IA pelos autores.

A Springer Nature, uma das maiores editoras acadêmicas do mundo, proíbe creditar qualquer inteligência artificial como autora. Mas, se isso acontecer, ela exige a divulgação de como a ferramenta foi implementada.

No entanto, essas políticas específicas para editores e revisores de periódicos não são seguidas na maior parte das vezes.

O jornal The Chronicle Higher Education contatou 15 grandes editoras e as cinco que responderam disseram que a IA, quando utilizada, nunca é a única tomadora de decisão e que os editores permanecem responsáveis pela palavra final.

Usar a inteligência artificial como revisora de texto se tornou uma tendência crescente entre os editores acadêmicos. Em um contexto em que há cada vez mais submissões de trabalhos para serem revisados, a tecnologia pode ser valiosa no dia a dia.

Porém, muitas das ferramentas que estão no mercado são capazes de funcionar de forma autônoma, dando margem para utilização indevida na ausência de orientações claras.

Um exemplo de como usar a IA

Antes mesmo do surgimento do ChatGPT, a editora suíça Frontiers desenvolveu um software com essa finalidade específica. A inteligência artificial examina artigos e identifica até 20 diferentes problemas relacionados a plágio ou imagens com sinais de manipulação.

O programa, no entanto, chamou a atenção por oferecer um serviço inovador: ele avisa quando autores, editores e revisores de um texto já assinaram juntos outros artigos. Dessa forma, é possível saber quando a proximidade pode tornar a avaliação subjetiva e configurar um conflito de interesses.

Denominada Artificial Intelligence Review Assistant (Aira), a ferramenta está sendo utilizada no processo de revisão por pares. O propósito dela é fornecer um alerta objetivo sobre interações prévias entre quem produz e quem avalia o conhecimento.

No fim, cabe a um juiz de carne e osso arbitrar se esses contatos anteriores afetam ou não a isenção da análise. “É necessário ter apoio tecnológico para verificar em larga escala conflitos de interesse entre autores e revisores”, disse o cientista da computação Daniel Petrariu, diretor de Desenvolvimento de Produtos da Frontiers, durante o lançamento do programa, em 2021.


Leia mais:

Redação
A redação do portal Desafios da Educação é formada por jornalistas, educadores e especialistas em ensino básico e superior.

    You may also like

    Comments

    Leave a reply

    O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

    Esse site utiliza o Akismet para reduzir spam. Aprenda como seus dados de comentários são processados.