
Publicado originalmente em IAEdPraxis: Caminhos Inteligentes para a Educação, em 6 de maio de 2025
Entre o temor à “cola” e o desafio de reimaginar provas e tarefas, revisamos pesquisas científicas que abordam um dos grandes “nós” do debate sobre IA, o impacto sobre as atividades avaliativas.
Desde que o ChatGPT & cia. chegaram com força no cenário educacional, a discussão sobre o impacto da Inteligência Artificial na Educação se intensificou em todas as frentes. Mas talvez nenhuma área tenha gerado tanto alarme e debate quanto a avaliação. Afinal, se uma máquina pode gerar textos coerentes, resolver problemas e até simular conhecimento, como saber se um trabalho entregue por um estudante reflete seu aprendizado real ou simplesmente o acesso a uma IA? O fantasma do “cola” instantânea se instalou nas salas dos professores e nas instituições.
Essa preocupação é válida e compreensível. A avaliação é um pilar central do processo educativo, não apenas para medir o aprendizado, mas também para guiar o ensino e certificar competências. A chegada da IA Generativa desestabilizou métodos e práticas que usamos há tempos, especialmente aqueles baseados em produção textual ou resolução de problemas padronizados que estão fora do controle direto do professor. Para muitos, a primeira reação foi (e ainda é) proibir o uso da IA em atividades avaliativas, com o uso de ferramentas de detecção ou mesmo retornado a formatos “à moda antiga” (provas orais, presenciais).

Slide que utilizo em cursos e palestras. Entre a “tecnofobia recalcitrante” e a “tecnofilia ingênua”, o temor a plágio, “cola”, “fila” predominou o debate. Bônus: imagem gerada por IA altamente estereotipada de um professor e registro histórico de como a inovação tecnológica foi recebida com resistência no meio educacional (no caso, a calculadora).
No entanto, um olhar mais aprofundado com apoio de resultados de pesquisa acadêmica nos mostram que a relação entre IA e avaliação é bem mais complexa e multifacetada do que a simples equação “IA = cola”. Artigos recentes têm buscado mapear como a IA está, de fato, impactando a avaliação, e o que está emergindo não são respostas fáceis, mas um campo de desafios e oportunidades que exigem o nosso engajamento ativo.
O que percebemos, ao analisar estes estudos é que a IA toca a avaliação em múltiplas camadas – impactando estudantes, professores e instituições – e de formas que vão além da integridade acadêmica. Há, sim, a questão da fraude, que se torna mais visível e desafiadora. Mas há também potencial para o desenvolvimento do letramento digital dos estudantes e professores, e para um repensar necessário sobre para que serve a avaliação na era digital.
O espelho e o martelo: impactos da IA na avaliação em três níveis
No nível dos estudantes, a IA pode ser uma ferramenta para o aprendizado e a autoavaliação, oferecendo feedback rápido. As atuais ferramentas podem ajudar a verificar a compreensão de conceitos ou sugerir roteiros de estudo, segundo a utilização de prompts específicos. No entanto, desafio aqui é a tentação e a facilidade de usar a IA para burlar o processo, gerando trabalhos que não refletem o seu esforço intelectual. A integridade acadêmica se torna um ponto de atenção constante, exigindo repensar o desenho das tarefas.

Meme que ilustra perfeitamente o dilema educacional contemporâneo: trabalhos realizados com o auxílio de Inteligência Artificial realmente representam aprendizagem genuína?
Para os docentes, a IA apresenta a possibilidade de otimizar algumas etapas da avaliação, talvez ajudando na criação de rubricas, na avaliação de produções escritas (sem substituir a leitura atenta e o julgamento humano) ou na formulação de atividades que geralmente demandam bastante esforço. No entanto, o uso da IA também exige que o professor desenvolva um nov “letramento em avaliação com tecnologia”, aprendendo a desenhar avaliações que considerem a existência da IA, a equilibrar a avaliação feita por humanos e a possível assistência da máquina, e a focar em habilidades que a IA atual não domina (criatividade, empatia…). Isso, claro, demanda bastante tempo e formação contínua.
Já para as instituições, o impacto é sistêmico, com a pressão para uma revisão completa das políticas de avaliação. É preciso pensar em novas diretrizes sobre o uso (permitido ou não, e sob quais condições) da IA em trabalhos e exames. Há a necessidade de desenvolver programas de formação para professores e estudantes sobre o uso ético da IA. Um passo além, o próprio currículo demanda ser repensado, por exemplo valorizando ainda mais o pensamento crítico, a criatividade, a resolução de problemas complexos e o aprendizado contínuo – habilidades que se tornam ainda mais relevantes num mundo com IA. A questão é: como fazer tudo isso de forma que a avaliação continue significativa e justa?
Em suma, a IA funciona como um espelho que reflete as fragilidades dos nossos métodos de avaliação atuais (especialmente aqueles facilmente automatizáveis ou replicáveis por IA) e, ao mesmo tempo, como um martelo que quebra as práticas solidificadas, forçando (ou permitindo) o redesenho. Entender esses impactos nos diferentes níveis é o ponto de partida para navegar esse cenário.
Repensando a casa: quadros, diretrizes e o desafio da implementação
Um exemplo desse esforço é a proposta do artigo Developing the Technology-Integrated Assessment Framework (Desenvolvendo o Framework de Avaliação Integrada à Tecnologia, em tradução livre) de Madland et al. (2024). Reconhecendo as lacunas nos modelos existentes, os autores propõem uma estrutura para pensar a avaliação integrada com tecnologia que vai além das ferramentas e tarefas, abordando aspectos como o propósito da avaliação, o “dever de cuidado” (duty of care) com os estudantes (incluindo ética e equidade) e a assimilação da tecnologia. Essa perspectiva mais ampla busca garantir que a integração tecnológica, incluindo a IA, seja pedagogicamente sólida e eticamente responsável, e não apenas um “verniz tecnológico”. A inclusão de perspectivas como os “Cinco Rs” da Educação Indígena neste quadro, focando em respeito, relevância e relacionamentos, reforça a busca por abordagens mais humanas e contextuais, mesmo com o uso de tecnologia.
Paralelamente, as instituições de ensino têm respondido à sua maneira. Em Mapping the response to AI and its impact on assessment redesign through document analysis (Mapeando a resposta à IA e seu impacto no redesenho de avaliações através da análise documental,em tradução livre), El Khoury (2024) identifica as diretrizes de diversas universidades, mostra que a resposta inicial foi variada e, em grande parte, reativa — uma “primeira onda” de orientações que buscam trazer clareza para professores e estudantes. Essas diretrizes tentam definir terminologias (um desafio, dada a variedade de termos), estabelecer princípios provisórios para o uso da IA em avaliação e oferecer conselhos práticos aos professores. Exemplos como a Universidade de Guelph discutindo o impacto multifacetado da IA ou o British Columbia Institute of Technology questionando o valor de atividades que podem ser automatizadas por IA mostram que o debate está posto.
No entanto, é importante notar que essas respostas estão em constante evolução. As diretrizes iniciais são provisórias, a terminologia ainda confusa, e a implementação prática enfrenta desafios. A detecção do uso não autorizado de IA, por exemplo, é reconhecida por algumas instituições como difícil ou impraticável. Isso reforça a ideia de que focar apenas na “fiscalização” talvez não seja o caminho mais eficaz ou sustentável.
O que esses esforços de resposta nos mostram é que a comunidade acadêmica está se movendo. Há um reconhecimento da necessidade de quadros conceituais e metodológicos que guiem a prática, de diretrizes que ofereçam um ponto de partida e de um repensar sobre o que e como avaliamos.
A mão na roda que ainda emperra: desafios práticos e o “peso aditivo”
Um ponto que chama a atenção nestas pesquisas é que, embora se fale muito em eficiência e em usar a IA para ajudar o professor, há pouca clareza ou recomendação sobre o que deve ser “tirado do mochila” do docente. Muitos dos debates e das propostas parecem adicionar tarefas – aprender a usar novas ferramentas, redesenhar avaliações, monitorar o uso de IA – sem compensar diminuindo a carga de trabalho em outras áreas. Isso cria uma sensação de peso adicional num contexto que já exige bastante dos professores.

A “Escala de Avaliação de Inteligência Artificial” (AIAS – Artificial Intelligence Assessment Scale) categoriza diferentes níveis de uso permitido de IA em atividades acadêmicas. Da “sem IA” até a “IA exploradora”, este framework é estruturado para que educadores determinem como e quando os alunos podem utilizar ferramentas de IA em diferentes tipos de atividades acadêmicas, desde proibir completamente o uso até incentivar a exploração criativa com IA.
Outro desafio reside na prática do redesenho. Dizer que é preciso focar em avaliações mais autênticas, que exijam pensamento crítico ou colaboração, é um passo. Mas como redesenhar todas as avaliações de uma disciplina ou curso, em larga escala, mantendo a qualidade e a equidade? Esse processo demanda tempo, conhecimento profundo em design instrucional e avaliação, e apoio institucional robusto – recursos que nem sempre estão disponíveis.
Além disso, a pesquisa Reinventing assessments with ChatGPT and other online tools: opportunities for GENAI-empowered assessment practices (Reinventando avaliações com ChatGPT e outras ferramentas online: oportunidades para práticas de avaliação potencializadas pela Inteligência Artificial Generativa, em tradução livre) de Foung, Lin e Chen (2024), ao analisar a experiência dos estudantes, revela que a questão da equidade no uso da IA também surge do lado de quem é avaliado. Se algumas ferramentas de IA (inclusive aquelas que poderiam auxiliar no estudo ou na revisão) têm versões premium com capacidades superiores, o acesso desigual a essas ferramentas pode criar novas disparidades. Por outro lado, a recomendação de instituições fornecerem acesso a versões pagas de IAs levanta questões de custo e viabilidade em larga escala.
A própria natureza “primeira onda” das diretrizes institucionais aponta para a incerteza e a evolução constante. Os desafios práticos reforçam a ideia de que a IA não é uma solução mágica para os problemas de avaliação. Ela expõe nossas fragilidades (métodos ultrapassados, sobrecarga docente, desigualdades de acesso) e exige um esforço coordenado e contínuo para ser integrada de forma construtiva. O foco não pode ser apenas em “adicionar IA”, mas em repensar o sistema de avaliação de forma mais ampla. Em considerar o que é factível, justo e que realmente contribui para o aprendizado.
O educador no centro do redesenho: para além do pânico moral

Slide utilizado desde minhas primeiras apresentações sobre “ChatGPT na Educação) (na época). A referência do século passado foi escolhida para mostrar como a “mudança de paradigma”, incluindo os rebatimentos sobre avaliação, não é uma discussão nova, pelo contrário.
As pesquisas aqui apresentadas nos convidam a ir além do pânico moral ou da negação da tecnologia. Elas apontam para a IA como uma ameaça à avaliação tradicional, sim, mas também como um estímulo para a inovação em avaliação.
É nesse contexto que o papel do educador se reafirma como central e insubstituível. Nenhuma ferramenta de IA, por mais sofisticada que seja, pode substituir o julgamento pedagógico na hora de desenhar uma avaliação que esteja alinhada aos objetivos de aprendizagem, que seja justa para todos os estudantes em sua diversidade e que sirva como uma experiência de aprendizado em si. A decisão sobre o quê, porquê e como avaliar, continua sendo (ou deveria ser) uma tarefa eminentemente humana.