Transparência no uso da inteligência artificial e supervisão humana estão entre os princípios centrais dos guias criados por universidades como Unifesp, Unesp e UFBA. As instituições defendem que ferramentas como ChatGPT e Gemini podem ser utilizadas, desde que com responsabilidade e acompanhamento crítico, e deixam claro que a reprodução automática de conteúdos, sem análise ou elaboração própria, não é aceita por comprometer o processo de aprendizagem.
Universidades adotam regras para uso de IA e defendem transparência em trabalhos acadêmicos
Instituições como Unesp, Unifesp, UFBA e UFC criam guias próprios enquanto MEC e CNE discutem diretrizes nacionais para o uso da tecnologia na educação
Ignorar a presença da inteligência artificial no ensino superior já não é mais uma opção para universidades e professores. Diante do avanço de ferramentas como ChatGPT e Gemini no cotidiano dos estudantes, instituições públicas brasileiras passaram a reconhecer que a proibição total do uso dessas plataformas seria ineficaz. O desafio, agora, é definir limites claros para que a tecnologia não comprometa a aprendizagem nem distorça os resultados das avaliações.
O debate também avança em nível nacional. O Conselho Nacional de Educação (CNE) discute atualmente um parecer que deverá estabelecer diretrizes para o uso da inteligência artificial na educação pública e privada em todas as etapas de ensino. Até esta segunda-feira (16), o texto ainda aguardava recomendações finais do Ministério da Educação (MEC). A expectativa é de que o parecer seja votado nos próximos dias e, em seguida, encaminhado para consulta pública.
Enquanto a regulamentação nacional não é concluída, universidades públicas decidiram criar seus próprios manuais e resoluções para orientar alunos, professores e pesquisadores sobre o uso acadêmico da inteligência artificial.
Na última semana, por exemplo, a Universidade Estadual Paulista (Unesp) divulgou um guia voltado à graduação, no qual classifica as práticas em três grupos: o que é permitido, o que é proibido e o que depende da orientação do professor.
Entre os usos autorizados estão tarefas como traduzir textos, parafrasear parágrafos, elaborar resumos, revisar gramática e ortografia, montar roteiros, cronogramas, mapas mentais e até gerar conteúdos multimídia, como imagens, vídeos, músicas, apresentações e jogos educativos. Também é admitido o uso da IA em traduções para fins de pesquisa, desde que o material seja cuidadosamente revisado e validado.
Por outro lado, a universidade proíbe a entrega de trabalhos produzidos por inteligência artificial como se fossem autorais, sem declaração explícita. Também veta o plágio, o uso da ferramenta em provas e avaliações sem autorização do docente, o compartilhamento de informações confidenciais ou protegidas por direitos autorais e a produção de desinformação, como deepfakes ou resultados experimentais simulados sem aviso.
Há ainda situações intermediárias, em que o uso depende da disciplina e das orientações do professor, como a geração de trechos específicos de trabalhos ou a utilização de IA em atividades em grupo.
Segundo Denis Salvadeo, professor da Unesp e um dos autores do guia, a principal preocupação é evitar que a tecnologia substitua o esforço intelectual do aluno. Em trabalhos de conclusão de curso, por exemplo, a expectativa é que a IA não seja usada para pesquisar ou redigir integralmente o texto, mas apenas como apoio, seja na correção gramatical, seja na busca inicial por referências.
A Universidade Federal de São Paulo (Unifesp) adotou uma linha semelhante. Em dezembro de 2025, a instituição aprovou diretrizes específicas para o uso de inteligência artificial na pós-graduação. O documento estabelece que todo uso da ferramenta em trabalhos e pesquisas deve ser explicitamente informado.
De acordo com Luiz Leduíno de Salles Neto, docente do Instituto de Ciência e Tecnologia da Unifesp, a comunidade acadêmica carecia de parâmetros mais objetivos sobre até onde a tecnologia poderia ser empregada em trabalhos científicos. Com a nova norma, a universidade determina que autores indiquem de forma transparente em que etapas utilizaram IA, para que avaliadores, orientadores e pareceristas analisem se esse uso foi adequado.
Na Universidade Federal da Bahia (UFBA), o “Guia para Uso Ético e Responsável da Inteligência Artificial Generativa” destaca o papel central do professor na definição das regras para cada atividade. O docente pode exigir que o estudante informe qual ferramenta utilizou, quais comandos enviou à plataforma e quais respostas recebeu.
Para Adriano Peixoto, professor e integrante da comissão de IA da UFBA, simplesmente copiar o texto gerado pela máquina e entregá-lo como atividade impede o desenvolvimento de competências essenciais, como raciocínio, síntese, articulação de ideias e senso crítico. Segundo ele, o uso da ferramenta só faz sentido quando o aluno consegue explicar por que a utilizou, como interagiu com ela e de que maneira interpretou as respostas recebidas.
Na Unifesp, essa lógica também foi incorporada formalmente à política institucional. A resolução sobre IA na pesquisa e na pós-graduação estabelece como obrigatória a inclusão de uma declaração explícita sobre o uso de inteligência artificial generativa em todos os documentos finais submetidos à avaliação ou encaminhados para publicação.
De modo geral, as universidades convergem em um ponto: a IA deve atuar como assistente, e não como autora principal do trabalho acadêmico. O entendimento é de que a tecnologia pode apoiar, complementar e ampliar capacidades humanas, mas não substituir a supervisão crítica de estudantes, pesquisadores e professores.
A pesquisadora Márcia Azevedo Coelho, da Universidade de São Paulo (USP), alerta que o maior risco do uso indiscriminado dessas ferramentas está na aceitação automática das respostas, como se fossem neutras ou infalíveis. Segundo ela, é preciso formar alunos e docentes para compreender como esses sistemas funcionam, quais interesses e visões de mundo atravessam sua construção e por que suas respostas exigem sempre análise humana.
Além disso, afirma a pesquisadora, a formação universitária pressupõe participação ativa, reflexão própria e produção intelectual autoral. Nesse sentido, a inteligência artificial pode ser um apoio, mas não substitui a contribuição singular de cada estudante.
A Universidade Federal do Ceará (UFC) também publicou, em setembro de 2025, uma portaria com restrições claras para a pós-graduação. A norma proíbe o uso da IA na redação de partes substantivas dos trabalhos de pesquisa, como métodos inéditos, resultados, discussão e conclusões. Também veta a inclusão de referências não verificadas, uma vez que essas ferramentas podem inventar artigos, livros ou autores inexistentes.
Um dos artigos da portaria prevê ainda que os trabalhos sejam submetidos a sistemas como o Turnitin, utilizados para detectar plágio e possíveis indícios de uso de inteligência artificial. Especialistas, porém, alertam que esse tipo de ferramenta não oferece garantia absoluta.
Segundo Tadeu da Ponte, pesquisador e especialista em inteligência artificial aplicada, softwares de detecção frequentemente geram falsos positivos e não conseguem comprovar com segurança que um texto foi produzido por IA. Para ele, o caminho mais eficiente continua sendo a adoção de protocolos de transparência entre professores e alunos, baseados em critérios éticos.
De acordo com os especialistas, os casos mais fáceis de identificar são o plágio tradicional — quando há cópia quase literal de outro texto sem citação — e o uso de referências falsas, problema recorrente em respostas geradas por ferramentas como o ChatGPT. Em qualquer cenário, a revisão humana continua sendo indispensável.
Para além das regras, estudiosos do tema defendem que o ensino superior precisará promover uma mudança mais ampla de cultura. Na avaliação de Tadeu da Ponte, não faz mais sentido tratar automaticamente o uso da IA como sinal de desinteresse ou preguiça. As ferramentas podem se tornar recursos valiosos tanto para estudantes quanto para professores, desde que utilizadas com responsabilidade.
Ele compara a resistência à IA a insistir no uso de um mapa impresso em vez de aplicativos de navegação. Para o especialista, o debate não deve girar em torno de proibir uma tecnologia já incorporada ao cotidiano, mas sim de estabelecer como ela pode contribuir efetivamente para o aprendizado.
Nesse contexto, ganha força a ideia de letramento digital em inteligência artificial. Para Márcia Coelho, da USP, é preciso ensinar não apenas os alunos, mas também os docentes a usar essas ferramentas de maneira crítica e produtiva. Essa adaptação também exige rever formatos tradicionais de avaliação.
Segundo ela, atividades individuais podem continuar sendo presenciais, em sala de aula, para reduzir interferências indevidas. Já seminários e apresentações podem incorporar o uso da IA, desde que os alunos demonstrem o que aprenderam, relacionem o conteúdo à própria experiência e desenvolvam argumentos próprios.
Outra possibilidade apontada pelos especialistas é o uso da inteligência artificial em simulações de práticas profissionais. Em um curso de jornalismo, por exemplo, um chatbot poderia assumir o papel de fonte entrevistada, permitindo que o estudante conduzisse perguntas em sequência e reagisse às respostas em tempo real. Nesse caso, o professor avaliaria justamente a qualidade da interação, a pertinência das perguntas e a capacidade de análise do aluno.
A proposta, segundo Tadeu da Ponte, pode tornar a avaliação mais dinâmica, ampliar o número de estudantes atendidos e permitir devolutivas mais detalhadas, substituindo formatos de prova que já não respondem tão bem aos desafios da educação contemporânea.



