

Lorem ipsum dolor sit amet, consectetur adipiscing elit
Passada a fase inicial de “descoberta” da tecnologia, a discussão sobre inteligência artificial (IA) no ensino superior brasileiro entra em uma nova etapa. O debate já não é mais centrado no que as ferramentas podem trazer para a produtividade docente e a experiência pedagógica. O foco, agora, é outro: estabelecer quem decide, sob quais regras e com quais responsabilidades.
Nesse cenário, a adoção da IA deixa de ser uma escolha individual. É claro que o professor continua com autonomia para definir o que é aceitável ou não em suas disciplinas, mas a decisão precisa ser guiada por diretrizes consistentes, auditáveis e alinhadas aos princípios estabelecidos pela instituição de ensino superior (IES). Em síntese, o uso da tecnologia passa a ser uma responsabilidade institucional.
Um levantamento recente da Associação Nacional dos Dirigentes das Instituições Federais de Ensino Superior (Andifes) aponta que 30 das 69 instituições mantidas pela União já publicaram protocolos ou iniciaram discussões formais sobre o uso de inteligência artificial. Dessas, 17 divulgaram guias nos últimos dois anos.
Há um bom motivo para essa regulação “de baixo para cima”: o avanço acelerado da tecnologia. Mesmo que de maneira informal, a IA já está inserida na rotina dos atores educacionais — especialmente dos estudantes.
“Mais do que ‘fiscalizar’ o uso, precisamos ensiná-los a usar com intencionalidade, porque essa será uma competência decisiva nas suas trajetórias profissionais”, complementa Raphaela Novaes, coordenadora de negócios da Plataforma A.
Para grande parte das IES, esperar pela regulamentação do chamado Marco Legal da Inteligência Artificial ou de outras diretrizes nacionais não é mais uma opção. Assim, elas mesmas passaram a criar protocolos para responder a problemas concretos e imediatos.
Essa agenda de governança e compliance inclui guias sobre transparência em trabalhos acadêmicos, uma definição explícita do que é permitido em avaliações e, em alguns casos, o enquadramento do uso não autorizado como má conduta equivalente ao plágio.
Isso não quer dizer que não haja nenhuma orientação “superior”. É aí, inclusive, que surge a segunda justificativa para a criação de regras internas.
Em março de 2026, o Ministério da Educação (MEC) publicou um referencial para o uso responsável de IA na educação. É um guia bastante completo — tanto para as IES que ainda não contam com diretrizes quanto para aquelas que querem aperfeiçoá-las.
O documento não é uma norma obrigatória, mas estabelece princípios claros, entre os quais se destacam:
Ainda no primeiro semestre de 2026, o Conselho Nacional de Educação (CNE) deve publicar uma resolução sobre o tema. O documento, que passará por consulta pública, estabelece diretrizes gerais para redes de ensino e instituições, com foco em aspectos como uso pedagógico, capacitação docente e proteção de dados.
Segundo o conselheiro Israel Matos Batista, a proposta não deve “brigar” com resoluções anteriores, mas também não pretende criar barreiras ao avanço da tecnologia no ambiente educacional.
Outro vetor de mudança é a Nova Política de Educação a Distância, publicada em maio de 2025. Mais conhecido como novo marco regulatório da EaD, o documento acabou gerando discussões por questionar não apenas a expansão acelerada da EaD, mas também aspectos como a qualidade acadêmica da modalidade.
Ao reforçar exigências de interação efetiva, mediação docente e estrutura mínima para oferta de cursos, o marco reduziu o espaço para modelos excessivamente automatizados — justamente onde a IA tende a ser usada de forma mais indiscriminada. Com isso, ferramentas de correção automática, tutoria virtual ou geração de conteúdo passam a ser avaliadas à luz de critérios rigorosos.
Para atender às novas exigências, as instituições precisam demonstrar capacidade de gestão pedagógica robusta, com definição clara de papéis, fluxos e responsabilidades. Nesse contexto, o uso de IA não pode ficar disperso em iniciativas isoladas; ele precisa ser institucionalizado, documentado e integrado a práticas de compliance, por meio da criação de protocolos internos e mecanismos de governança
As universidades vêm adotando caminhos próprios para regular o uso da inteligência artificial, com níveis variados de formalização, controle e autonomia docente. Os três exemplos a seguir mostram como essa governança começa a se traduzir em regras, estruturas e responsabilidades no cotidiano acadêmico.
Na Universidade Federal do Ceará (UFC), o uso de inteligência artificial deixou de ser uma prática difusa para se tornar objeto de regulação direta da Pró-Reitoria de Pesquisa e Pós-Graduação. Uma portaria publicada em setembro de 2025 estabeleceu normas específicas para dissertações, teses e outros trabalhos acadêmicos, inserindo o tema no fluxo de avaliação institucional.
Isso significa que o estudante só pode adotar a IA como ferramenta de apoio — e precisa declarar exatamente como. Antes da defesa, o trabalho deve passar por sistemas de verificação de similaridade, com relatório anexado e validado pelo orientador. O controle envolve aluno, docente e o sistema da IES ao mesmo tempo.
A portaria também delimita claramente o que não pode ser feito. É proibido usar IA para redigir partes centrais da pesquisa — como resultados ou conclusões — ou para gerar referências não verificadas, um problema recorrente nesses sistemas. A lógica é preservar a autoria humana como eixo da produção científica.
“Queremos evidenciar a preocupação da UFC em disseminar uma cultura de integridade acadêmica, incentivando discentes e docentes a manterem atenção redobrada quanto à originalidade, à correta atribuição de autoria e à responsabilidade na produção de trabalhos acadêmicos”, declarou, ao portal da universidade, a coordenadora de Avaliação e Planejamento Estratégico da Pró-Reitoria, Lidiany Rodrigues.
Como muitas IES, a Universidade Estadual Paulista (Unesp) optou pela criação de um guia institucional. Elaborado pela Pró-Reitoria de Graduação, em parceria com o Laboratório do Futuro, o documento busca orientar o uso da IA por alunos e docentes.
A regra é clara: a tecnologia pode ser utilizada para apoio à escrita, revisão ou tradução, mas não para substituir a autoria. Já em avaliações, o uso depende de autorização explícita do professor, que passa a ter a responsabilidade de definir, no plano de ensino, o que é permitido e em quais condições.
Esse modelo desloca a governança para um formato híbrido: a universidade estabelece princípios gerais, como transparência e responsabilidade, enquanto a aplicação varia conforme a disciplina. Ao mesmo tempo, a criação de estruturas como o Laboratório do Futuro indica uma tentativa de institucionalizar o debate e oferecer formação contínua.
Como resume o professor Amadeu Moura Bego, um dos responsáveis pelo guia, o objetivo não é “nem mera negação e nem uma adoção acrítica e salvacionista” da tecnologia, mas a construção de critérios de uso responsável dentro do ambiente acadêmico.
A Universidade Federal da Bahia (UFBA) optou por um modelo que reforça a autonomia docente. Um guia de uso ético da IA estabelece que cabe ao professor definir o que é permitido, proibido ou condicionado ao uso da tecnologia.
O docente pode exigir, por exemplo, que o aluno detalhe como a ferramenta foi explorada, quais comandos foram feitos e como as respostas foram incorporadas ao trabalho. A avaliação passa a incluir não só o produto final, mas a capacidade do estudante de explicar esse processo.
Em depoimento ao site Olhar Alerta, o professor Adriano Peixoto, integrante da comissão de IA da UFBA, explicou o porquê dessa escolha. Ele entende que, se o aluno apenas replicar o conteúdo gerado pela IA, deixará de desenvolver competências essenciais.
“Quando você simplesmente dá um comando, recebe um texto de volta e entrega esse texto, as habilidades de raciocínio, de acúmulo, de ligação de ideias e de síntese não são desenvolvidas. Foi só a máquina. Você entrega a atividade, mas não desenvolve a aprendizagem”, argumentou.
Mesmo quando as IES elaboram suas diretrizes de forma independente, não há como escapar de alguns temas sensíveis. De modo geral, os protocolos institucionais convergem em três eixos principais, que formam um núcleo da governança emergente:
O primeiro é a integridade acadêmica. A IA amplia de forma significativa a capacidade de produzir textos, códigos e análises, tornando mais difícil distinguir autoria própria de conteúdo gerado. Com isso, cresce a exigência de explicitação não apenas do resultado, mas do processo de produção.
Segundo Raphaela Novaes, a inteligência artificial escancara uma fragilidade estrutural: a predominância de avaliações centradas no produto final (a resposta) em detrimento do processo. Ela pontua: “A essência do ensino sempre residiu em capacitar o aluno a questionar e analisar cenários. Diante do avanço tecnológico, essa transição de foco tornou-se inadiável”.
Também é preciso considerar a proteção de dados. Muitas ferramentas operam com a coleta e o processamento de informações sensíveis, o que amplia riscos jurídicos e éticos, especialmente em ambientes de pesquisa.
Resta ainda a preservação do esforço intelectual. Já há, no debate educacional, o alerta para o risco de uma “terceirização do pensamento”, em que etapas centrais da aprendizagem são delegadas à tecnologia.
Se parte dessas respostas ainda está em formulação no plano institucional, outra parte já pode ser observada no cotidiano de quem ensina, aprende e gere processos educacionais. É justamente nesse ponto que entram iniciativas voltadas a captar como a inteligência artificial vem sendo incorporada, na prática, à rotina acadêmica.
A Plataforma A conduz uma pesquisa aberta sobre o uso de inteligência artificial na educação, com foco em experiências reais de docentes, estudantes e gestores. O levantamento busca identificar aplicações concretas da tecnologia, além de mapear dores, desafios e necessidades do setor. As respostas vão embasar um e-book previsto para lançamento no CIAED.
Clique aqui para participar da pesquisa.
A regulamentação interna da IA nas IES impõe um desafio complexo, marcado por uma tensão inerente: de um lado, a autonomia docente, alicerce histórico da academia; de outro, a urgência de uma padronização mínima que assegure coerência institucional e robustez jurídica.
Há também o desafio de atingir o equilíbrio entre inovação e controle. Protocolos excessivamente rígidos tendem a inibir usos pedagógicos relevantes da IA. Entretanto, regras frouxas podem fragilizar a integridade acadêmica.
Esse movimento exige precisão. “O investimento em inteligência artificial ainda não é trivial. Isso exige escolhas mais estratégicas, com foco em iniciativas que realmente gerem impacto pedagógico e não apenas adesão tecnológica”, afirma Raphaela.
O fato é que o ensino superior como conhecemos está mudando — e isso inevitavelmente impactará todos os processos que envolvem a aprendizagem. Nesse sentido, universidades que conseguem avançar na definição de regras e mecanismos de compliance se tornam mais capazes de lidar com as implicações da tecnologia.
Para Raphaela, o papel da instituição vai além da norma. “A discussão não pode se encerrar na criação de documentos. É fundamental investir, por exemplo, na capacitação docente, para que o uso da IA esteja, de fato, a serviço da aprendizagem e do desenvolvimento do pensamento crítico.”
Por Redação
Gostou deste conteúdo? Compartilhe com seus amigos!
MAPA DO SITE