

Lorem ipsum dolor sit amet, consectetur adipiscing elit
A incorporação da inteligência artificial (IA) no ensino superior já é uma realidade. Embora o Brasil ainda esteja à espera da aprovação de normativas como o Marco Legal da Inteligência Artificial e de uma resolução do Conselho Nacional de Educação (CNE) sobre o tema, um levantamento recente aponta que 30 das 69 instituições de ensino superior (IES) federais já contam com protocolos ou iniciaram discussões formais para orientar o uso da tecnologia.
A ideia de criar normas internas faz sentido. Mesmo que de forma paliativa, um guia ajuda a estabelecer limites e critérios para o uso da IA, ao propor ganhos de eficiência sem abrir mão de mediação humana, ética e intencionalidade pedagógica.
Caso contrário, corre-se o risco de virar um “Deus nos acuda”: quando a instituição não se posiciona, as regras são estabelecidas individualmente, sem qualquer propósito.
Neste texto, o portal Desafios da Educação traz um pequeno guia para ajudar sua IES a entender onde a inteligência artificial, de fato, agrega valor e onde exige cautela e supervisão constante.
Há um conjunto de usos em que a inteligência artificial se encaixa com naturalidade, porque atua como ferramenta de apoio, não como substituta do processo formativo. O primeiro deles é a organização do trabalho docente.
Planejamento de aulas, estruturação de conteúdos, criação de exercícios iniciais e revisão de materiais são tarefas que consomem tempo e demandam baixa complexidade decisória. Nesse campo, a tecnologia funciona como acelerador, pois o ganho não está no resultado em si, mas no tempo liberado para outras atividades.
Outro espaço evidente é o apoio ao estudante. Sistemas baseados em ferramentas de IA generativa conseguem responder dúvidas, sugerir trilhas de aprendizagem e adaptar explicações ao ritmo de cada aluno. Esse tipo de personalização é apontado como um dos principais potenciais da tecnologia. Na prática, funciona como uma camada adicional de suporte — útil, especialmente, em contextos de turmas grandes ou ensino híbrido.
Também há avanços consistentes na gestão acadêmica. Análise de dados para prever evasão, automatização de processos administrativos e organização de fluxos internos são aplicações com impacto direto na eficiência institucional.
O problema surge quando a lógica de eficiência invade áreas em que o objetivo não é produzir mais rápido, e sim formar com qualidade.
Um deles é o processo de avaliação. Se ferramentas de IA conseguem gerar respostas completas, o que exatamente está sendo medido? Conhecimento, capacidade de síntese ou habilidade de formular bons prompts?
Sem revisão dos métodos avaliativos, a tendência é de perda de sentido. A primeira orientação global da Unesco (Organização das Nações Unidas para a Educação, a Ciência e a Cultura) já aponta esse risco: o uso automatizado de inteligência artificial pelos estudantes pode comprometer a integridade acadêmica e distorcer o processo de aprendizagem.
A autoria é outro campo tensionado. A ideia de que o aluno é responsável pelo que entrega continua válida, mas se torna mais difícil de sustentar na prática. Quando parte relevante da produção é mediada por IA, a fronteira entre autoria e edição fica mais tênue. E ainda não há consenso sobre como lidar com isso.
Existe um impacto mais silencioso, mas nem por isso menos relevante: o cognitivo. Algumas pesquisas indicam que o uso recorrente de inteligência artificial como atalho pode reduzir o desenvolvimento de habilidades intelectuais — da argumentação à capacidade de formular problemas.
Por fim, há um ponto estrutural que costuma ser ignorado: a IA não compreende o que produz. Modelos generativos operam com padrões de linguagem e podem errar, inventar ou simplificar de forma enganosa. Em um ambiente educacional, isso é um risco direto à qualidade do conhecimento.
Se a adoção da inteligência artificial no ensino superior é inevitável, o foco deixa de ser a redução de danos e passa a ser outro: entender como extrair valor real da tecnologia.
Não há modelo fechado para a adoção da IA, mas alguns caminhos já aparecem com mais consistência. Um deles é o Referencial para o Uso e Desenvolvimento Responsáveis de Inteligência Artificial na Educação, desenvolvido pela Secretaria de Gestão da Informação, Inovação e Avaliação de Políticas Educacionais (Segape), do Ministério da Educação (MEC).
Publicado em março de 2025, o guia tem por objetivo orientar instituições, educadores, gestores e formuladores de políticas públicas sobre como usar a tecnologia de forma responsável, ética e socialmente comprometida nos processos educacionais.
A adoção de IA deve partir de objetivos educacionais claros. O referencial é explícito ao colocar a tecnologia como meio, subordinado à aprendizagem.
Na prática: a pergunta não é onde usar IA, mas que problema pedagógico precisa ser resolvido.
A IA deve complementar e fortalecer o trabalho docente, nunca substituí-lo. O documento é enfático quando defende a necessidade de supervisão humana e a responsabilidade do educador em decisões sensíveis.
Na prática: qualquer uso que elimine a mediação pedagógica é suspeito — e, portanto, não recomendado.
Não basta permitir o uso de IA; é preciso torná-lo auditável. O referencial destaca transparência, explicabilidade e responsabilização como princípios estruturantes.
Na prática: exigir declaração de uso, registro de prompts ou descrição do processo pode não resolver a questão da autoria, mas cria condições mínimas de acompanhamento.
Modelos baseados apenas em entrega final tendem a ser frágeis diante da IA. O referencial enfatiza a importância de aspectos como aprendizagem ativa, pensamento crítico e acompanhamento contínuo.
Na prática: avaliações precisam incluir etapas, iteração (repetição como melhoria), justificativas e, quando possível, mediação oral.
O documento trabalha com a ideia de “aprender com IA e sobre IA”. Ou seja, o estudante precisa entender a tecnologia, seus limites e impactos.
Na prática: discutir vieses, erros (as chamadas “alucinações”) e implicações sociais faz parte do uso responsável.
A ideia é evitar soluções únicas e destacar a necessidade de adaptação a diferentes níveis, áreas e realidades educacionais.
Na prática: políticas genéricas tendem a virar formalidade vazia. O uso deve variar conforme as disciplinas, etapas e objetivos.
A adoção de inteligência artificial não pode ampliar desigualdades. Tanto que o documento do MEC coloca equidade e acesso como princípios centrais.
Na prática: o uso pedagógico deve levar em conta aspectos como infraestrutura, conectividade e letramento digital.
O uso de IA envolve dados sensíveis e exige conformidade com a Lei Geral de Proteção de Dados (LGPD), além de mecanismos claros de responsabilidade e supervisão.
Na prática: a implementação institucional precisa definir quem responde por decisões automatizadas — e com quais limites.
9. Invista em formação docente contínua
Não se trata apenas de treinar para o uso de ferramentas, mas de desenvolver uma compreensão crítica e pedagógica da IA.
Na prática: se oferecida de forma superficial, a capacitação tende a gerar dois extremos igualmente ruins: uso acrítico ou rejeição total.
O referencial do MEC alerta: a IA pode tanto melhorar práticas quanto apenas acelerar problemas existentes.
Na prática: a adoção rápida da tecnologia, sem revisão pedagógica, tende a reforçar modelos “enganadores” — rápidos e escaláveis, mas pouco efetivos na aprendizagem.
Não é só porque a IA está disponível que precisa ser utilizada. Algumas atividades exigem competências estritamente humanas, como pensamento crítico, criatividade, julgamento ético e autonomia.
Na prática: quanto mais a atividade depende dessas dimensões, menos sentido faz delegá-la à IA.
Se parte das respostas ainda vem sendo construída no nível institucional, outra já aparece no dia a dia de quem vivencia os processos educacionais. É nesse terreno que ganham espaço iniciativas voltadas a compreender como a inteligência artificial é incorporada à rotina acadêmica.
A Plataforma A está conduzindo uma pesquisa aberta sobre o uso de IA na educação, com foco nas experiências reais de gestores, docentes e estudantes. O objetivo é identificar aplicações concretas da tecnologia, além de mapear dificuldades, desafios e demandas do setor. Os resultados devem subsidiar um e-book, previsto para ser lançado durante o 31º Congresso Internacional Abed de Educação a Distância — Ciaed.
Para participar da pesquisa, basta clicar aqui.
Por Redação
Gostou deste conteúdo? Compartilhe com seus amigos!
MAPA DO SITE