No primeiro episódio da 6ª temporada de Black Mirror, uma executiva é pega de surpresa ao ligar a televisão e descobrir que uma plataforma de streaming transformou sua vida em uma série de sucesso.
Na distopia da Netflix, o drama da privacidade violada se torna uma investigação sobre quais direitos e responsabilidades estão envolvidos na produção. Aquela história é de quem? Da executiva? Dos produtores que levaram o drama para a tela? Da plataforma que se apropriou do roteiro? Dos fabricantes que deram vida àquela tecnologia?
Afinal, existe plágio em um mundo que as pessoas compartilham tudo com todo mundo o tempo todo? Se sim, quem faz cópia de quem?
Essas questões não se limitam a ficção. Pelo contrário, as ferramentas de inteligência artificial (IA) trouxeram para o mundo real muitas situações antes vistas somente em filmes e séries. E como sempre, a educação não ficou de fora.
IA: plágio ou não?
Há algumas semanas, uma usuária do X (antigo Twitter) compartilhou uma história para lá de intrigante. Ao escrever o trabalho de conclusão de curso, o tio dela foi acusado de plágio pelo ChatGPT. Isso porque um professor da banca alegou que o texto havia sido feito pela IA – e a própria ferramenta “dedurou” o rapaz.
O estudante, de acordo com o relato disponível na rede social, precisou chamar uma reunião com a banca avaliadora para provar que a IA não era ferramenta de plágio. “Além de todo o sofrimento e da falsa acusação, meu tio está tendo que fazer algo que não cabe a ele: provar que o ChatGPT é falho”, relatou a dona do perfil, @carollingian.
A história teve um desfecho feliz para o estudante. Ele conseguiu provar sua inocência mostrando que um trabalho do próprio avaliador também havia sido “dedurado” como plágio pela inteligência artificial. O TCC então foi aprovado e o rapaz conseguiu se formar.
Dias depois de o relato viralizar, outro usuário do antigo Twitter resolveu testar a IA. Ele jogou no ChatGPT um trecho de um artigo de sua autoria que nunca passou pela ferramenta e depois perguntou quem escreveu o texto. Resultado: a plataforma disse que foi ela. Após os protestos do autor, o ChatGPT se corrigiu e disse que não era o autor do texto.
Essas duas experiências mostram que é necessário ter cautela no momento de usar a IA na produção de trabalhos acadêmicos. Mas e quanto à revisão dos artigos? Experiências mostram que dar uma chance à ferramenta não é tão ruim assim.
Leia mais:
- Inteligência artificial: 4 alternativas ao ChatGPT
- Professores usam ChatGPT com mais frequência do que alunos
- Como o ChatGPT está mudando a rotina de escolas e faculdades brasileiras
IA na revisão de textos
O medo de que artigos criados por inteligências generativas possam ser submetidos como trabalhos acadêmicos levou muitos editores publicarem políticas de vedação no uso de IA pelos autores.
A Springer Nature, uma das maiores editoras acadêmicas do mundo, proíbe creditar qualquer inteligência artificial como autora. Mas, se isso acontecer, ela exige a divulgação de como a ferramenta foi implementada.
No entanto, essas políticas específicas para editores e revisores de periódicos não são seguidas na maior parte das vezes.
O jornal The Chronicle Higher Education contatou 15 grandes editoras e as cinco que responderam disseram que a IA, quando utilizada, nunca é a única tomadora de decisão e que os editores permanecem responsáveis pela palavra final.
Usar a inteligência artificial como revisora de texto se tornou uma tendência crescente entre os editores acadêmicos. Em um contexto em que há cada vez mais submissões de trabalhos para serem revisados, a tecnologia pode ser valiosa no dia a dia.
Porém, muitas das ferramentas que estão no mercado são capazes de funcionar de forma autônoma, dando margem para utilização indevida na ausência de orientações claras.
Um exemplo de como usar a IA
Antes mesmo do surgimento do ChatGPT, a editora suíça Frontiers desenvolveu um software com essa finalidade específica. A inteligência artificial examina artigos e identifica até 20 diferentes problemas relacionados a plágio ou imagens com sinais de manipulação.
O programa, no entanto, chamou a atenção por oferecer um serviço inovador: ele avisa quando autores, editores e revisores de um texto já assinaram juntos outros artigos. Dessa forma, é possível saber quando a proximidade pode tornar a avaliação subjetiva e configurar um conflito de interesses.
Denominada Artificial Intelligence Review Assistant (Aira), a ferramenta está sendo utilizada no processo de revisão por pares. O propósito dela é fornecer um alerta objetivo sobre interações prévias entre quem produz e quem avalia o conhecimento.
No fim, cabe a um juiz de carne e osso arbitrar se esses contatos anteriores afetam ou não a isenção da análise. “É necessário ter apoio tecnológico para verificar em larga escala conflitos de interesse entre autores e revisores”, disse o cientista da computação Daniel Petrariu, diretor de Desenvolvimento de Produtos da Frontiers, durante o lançamento do programa, em 2021.
Leia mais:
Comments