O risco do atalho

Por Karen Cardial

Considerando que 70% dos estudantes do Ensino Médio afirmam utilizar inteligência artificial para estudar, deve-se reconhecer que ela já está na pesquisa feita em casa, na produção de texto e na resposta dada em sala. Usada como atalho, acaba por comprometer etapas essenciais da aprendizagem.

Eduardo Araújo Ribeiro trabalha exatamente nesse ponto de tensão. Pedagogo e gerente de tecnologia na Soluções Moderna, Eduardo lidera o desenvolvimento de ferramentas de IA aplicadas a avaliações, produção textual e fluência leitora em redes de ensino de diferentes portes. Ele acompanha tanto o uso espontâneo dos estudantes quanto as tentativas estruturadas das escolas de incorporar a tecnologia ao currículo.

Nesta entrevista, o especialista analisa em que esferas a IA tem ajudado, em quais tem distorcido processos cognitivos e quais critérios são indispensáveis para que ela não substitua o pensamento do estudante.

1. Qual foi o seu caminho profissional até chegar à atuação com tecnologia educacional e inteligência artificial?

Sou formado em Pedagogia e tenho especialização em Tecnologia Educacional. Estou no mercado há mais de 18 anos. Trabalhei sempre ligado ao tema de tecnologia educacional, aplicação e uso dentro das escolas e formação de educadores a distância. Hoje estou mais focado em projetos de avaliação e no uso de ferramentas de inteligência artificial.

2. Quando se afirma que “todo mundo já está usando inteligência artificial na escola”, estamos falando de qual realidade, exatamente? O que os dados e a sua experiência nos mostram sobre o uso real de IA generativa por professores e estudantes hoje?

Desde 2024, com a popularização do ChatGPT, vem crescendo o número de pessoas usando IA como ferramenta de pesquisa. Muita gente usa para resumir textos, montar planos de aula e organizar conteúdo. O que tenho visto na escola está muito ligado a um uso periférico, no sentido de não explorar o potencial e ficar no lado “tarefeiro”: professores usam IA para preparação de aula, organização de conteúdo, resumos. Estudantes, muitas vezes, fazem um uso errado, copiando textos, e repetem um movimento parecido com o que acontecia com a Wikipédia: pesquisa, copia e cola, só que agora usando IA generativa, com mais “precisão”. O uso espontâneo costuma vir assim, sem orientação e sem mecanismos que ajudem o estudante a entender como a IA pode contribuir para a educação, em vez de só virar atalho.

“A inteligência artificial deveria ficar em background, fomentando o processo de aprendizagem, sem tomar o protagonismo do professor ou do estudante.” (Eduardo Araújo Ribeiro)

3. Entre curiosidade, experimentação e uso pedagógico estruturado, em que estágio as escolas brasileiras realmente estão em termos de uso da IA generativa?

A gente tem um problema de estrutura tecnológica. Existe um planejamento de digitalizar 100% das escolas até o final de 2026, também por conta da BNCC da Computação. As escolas estão se preparando para melhor conectividade. No uso de IA generativa, ainda tem algo incipiente sobre como ela pode fazer parte do contexto escolar. Sempre que surge uma nova tecnologia, reaparece a dúvida se ela irá substituir o professor. Isso gera resistência. Também existe cautela por causa do resultado, porque a IA não é 100% assertiva.

Hoje, na escola, ela vem sendo usada para planejamentos, resumos e tarefas repetitivas. Vejo esse uso crescer. Com o aparecimento de tutores de IA, algumas escolas começaram a usar a tecnologia para auxiliar estudantes, mas ainda é um uso tímido. Tem também um descompasso: o professor tem um tempo de aprendizagem diferente do estudante. Existe um gap entre o que o estudante aprende rápido com novas tecnologias e o que a escola consegue acompanhar, e o estudante cria atalhos. Isso vira um desafio grande para as escolas.

4. Quais são os usos mais frequentes das ferramentas de IA generativa que você tem observado entre estudantes? O que tem contribuído para a aprendizagem e o que tem gerado distorções?

Dentro da sala de aula, a IA tem gerado mais distorção do que aprendizagem, pelo uso que muitos estudantes fazem. Vejo a IA usada para resolver atividades, copiar textos e criar respostas prontas. Em alguns casos, ela acaba substituindo o próprio processo de aprendizagem, o que é perigoso, porque o estudante deixa de pensar para construir conhecimento. Isso acontece com frequência no Ensino Médio e no Ensino Superior quando a tarefa é feita rapidamente, sem enfrentar dificuldade: o estudante se torna apenas intermediário para copiar e entregar.

Ao mesmo tempo, quando a IA é desenvolvida para a aprendizagem, ela ajuda mais, como tutores de IA, e ferramentas para ensinar uma segunda língua. O Duolingo, por exemplo, usa IA para gerar atividades. Existem aplicativos que funcionam como tutores, e isso depende de como o agente é programado: ele precisa ser construído para promover aprendizagem, com curadoria do que vai ensinar e com o tom de como vai atuar com cada estudante.

Na TIC Educação (Cetic.br), aparecem estudantes dizendo que usam IA para estudar, e isso sobe bastante no Ensino Médio. Só que “estudar” pode incluir tudo isso: desde usar bem até copiar. Há ainda outro problema: a informação nem sempre é verdadeira. Existe o conceito de “alucinação”: a ferramenta inventa uma resposta porque foi programada para sempre oferecer alguma devolutiva. Ao não reconhecer limites, pode produzir conteúdo incorreto com aparência de precisão, o que se torna perigoso quando não há curadoria ou checagem. Isso muda o modo como avaliamos, porque a resposta direta talvez não seja mais o caminho. A ferramenta deveria ficar em background, fomentando o processo, sem tomar o protagonismo.

5. Do ponto de vista do professor, quais aplicações de IA generativa já demonstraram impacto concreto na prática pedagógica?

Há ferramentas de tutores on-line disponíveis 24 horas, empregadas em sistemas de preparação para vestibular, por exemplo. Existem também soluções para segunda língua e para reforço de Língua Portuguesa e Matemática, todas construídas com IA.

Para apoiar o professor, o impacto mais evidente está nas ferramentas administrativas, que assumem tarefas repetitivas e demoradas. Esse é um bom uso: liberar tempo do docente, deixando atividades mecânicas para a máquina.

Aqui na Soluções Moderna, desenvolvemos soluções tecnológicas que oferecem um suporte inicial, alinhado a critérios pedagógicos reconhecidos nacionalmente, e o docente realiza a curadoria, validando e concluindo o processo.
A premissa é manter o professor como protagonista.

No segundo semestre do ano passado, realizamos pilotos que envolveram cerca de 230 mil estudantes. Foi um desafio grande, com diferentes tecnologias e uso de câmeras, mas o resultado foi positivo. A economia de tempo também foi relevante, com redução em torno de 40% no tempo gasto.

Há, porém, um risco: a IA pode gerar comodidade. Quando a validação relaxa, o processo perde qualidade. No momento de maior expansão da IA surgiram ferramentas que criavam conteúdo e o entregavam diretamente ao estudante. Isso é perigoso. A IA pode agilizar a construção, mas o professor precisa curar antes de levar para a sala.

6. Onde estão hoje os principais equívocos na adoção da IA nas escolas? Há casos em que a tecnologia foi incorporada de forma precipitada ou malconduzida?

O principal equívoco na adoção da IA nas escolas passa pela curadoria do professor. Quando falamos de inteligência artificial, precisamos olhar para os processos cognitivos envolvidos para evitar usos inadequados. Uma referência útil é a taxonomia de Bloom, que classifica os objetivos de aprendizagem em seis níveis de complexidade crescente: lembrar, entender, aplicar, analisar, avaliar e criar. É um modelo estratégico para organizar o ensino e as avaliações.

Do “compreender” em diante, os níveis exigem maior elaboração cognitiva. Se estou diante de um processo repetitivo – de baixo nível cognitivo –, como lembrar ou, em alguns casos, compreender, a IA pode assumir parte dessa tarefa e ajudar. A generativa funciona bem nesse tipo de apoio. Já em demandas de nível mais elevado, que exigem análise, avaliação ou criação, ela pode atuar como auxiliar, mas requer muito mais cuidado. Nesses casos, é necessário questionamento e reflexão maior por parte do professor, porque a IA não deve construir o processo pelo estudante, e sim ajudar a consolidar ideias, funcionando mais como revisora do que como autora.

Temos observado situações em que ferramentas são utilizadas para produzir planos de aula com pouca revisão docente, o que é problemático, especialmente quando pessoas alheias ao processo de ensino elaboram esse conteúdo.

Se olharmos para outros equívocos na incorporação de tecnologias, podemos nos lembrar do uso de celulares dentro da sala de aula. Durante muito tempo, entraram sem orientação clara, o que gerou desconcentração e prejuízos no processo de aprendizagem. A discussão recente sobre restrições mostra que é preciso refletir sobre o que deixamos passar pela porta da sala de aula. Com a IA, o princípio é o mesmo. Não se pode disponibilizar ferramentas “cruas” do mercado de forma integral, sem critérios.

Também é fundamental atenção às bases de conhecimento que alimentam essas inteligências artificiais. Outro erro recorrente é implementar tecnologia sem processo formativo para o professor. Sem formação e orientação, a tendência é ocorrer mau uso ou não uso da ferramenta, e ambos os cenários são prejudiciais. A tecnologia não substitui o processo de aprendizagem, mas pode desorganizá-lo quando incorporada sem intencionalidade pedagógica.

“Com curadoria do professor, a IA reduziu em cerca de 40% o tempo gasto com correções.” (Eduardo Araujo Ribeiro)

7. Que tipo de formação o professor precisa ter para utilizar IA generativa com intencionalidade pedagógica e critérios claros?

Para usar tecnologia, o professor não precisa de uma formação técnica específica, e sim de desenvolver cuidado e capacidade de curadoria do conteúdo que será levado para a sala de aula. O uso da IA generativa pelo professor passa por isso: olhar para o que a ferramenta produz, criar formas de trabalhar esse material com os estudantes e evitar que um conteúdo não curado se torne parte do cotidiano pedagógico.

Se falamos em intencionalidade e critérios claros, um caminho concreto é resgatar estratégias como a WebQuest, que já faz parte da história da tecnologia educacional. O professor pode propor percursos investigativos, criar questões e etapas que levem o estudante a pesquisar, analisar informações, gerar imagens e elaborar relatórios.
A IA pode apoiar esse percurso, mas não o substituir. Nesse contexto, ganha relevância a engenharia de prompts.

O professor precisa aprender a construir bons prompts, alinhados à temática e às habilidades que deseja desenvolver. Por exemplo, ao trabalhar História da Roma Antiga, pode orientar a IA a assumir o papel de professora especialista do 6º ano, vinculando a atividade às habilidades da BNCC e solicitando que a ferramenta proponha questões que levem o estudante a refletir sem entregar respostas diretas.

Quando o prompt é bem estruturado, com limites e objetivos definidos, qualquer ferramenta, seja ChatGPT, Claude ou outras, tende a produzir resultados mais adequados. Essa construção não é diferente de oferecer instruções precisas: trata-se de orientar corretamente o processo. Com esse uso consciente, o professor pode inclusive criar seus próprios agentes ou tutores de IA estruturando experiências de aprendizagem mais consistentes.

Ao estabelecer critérios e amarras temáticas, diminui-se a chance de a ferramenta divagar ou “alucinar”, e o papel docente passa a ser o de criar cenários favoráveis à aprendizagem.

8. Em termos de desenvolvimento do pensamento crítico, a IA generativa representa mais risco ou mais oportunidade? Em que condições ela fortalece a autonomia intelectual do estudante?

O risco aparece quando a IA é utilizada em processos cognitivos de alta complexidade sem curadoria. Ela pode contribuir para o desenvolvimento do pensamento crítico, mas, da forma como é oferecida hoje no mercado, tende a simplificar a aprendizagem se for utilizada “crua”, sem mediação.

Ferramentas generalistas, como o ChatGPT, operam com ampla abrangência temática. Conseguem ir de uma lista de compras a interpretações místicas. Essa amplitude é interessante em muitos contextos, mas, no ambiente educacional, pode se tornar um problema. Quando a ferramenta entrega respostas prontas, reduz-se o espaço para o pensamento complexo e para o desenvolvimento gradual da aprendizagem.

Para que a IA fortaleça a autonomia intelectual, ela precisa de curadoria docente e de limites definidos antes do uso.
É preciso estruturar agentes voltados especificamente ao ensino e à aprendizagem, com parâmetros pedagógicos claros. Isso implica criar prompts que estabeleçam papéis, critérios e restrições, de modo a evitar que a IA responda de forma irrestrita ou que divague sobre o tema. Nesse sentido, volta a importância da formação do professor. Ele precisa ser capaz de construir esses prompts e atuar como mediador do processo, mantendo autonomia frente à abrangência da ferramenta.

Há também um ponto importante de oportunidade. A IA generativa abre espaço para ampliar a educação adaptativa, algo que antes era mais complexo de implementar. Já existiam modelos de aprendizagem personalizada, mas agora é possível gerar atividades com diferentes níveis de complexidade de maneira mais ágil. Isso permite adaptar conteúdos ao nível cognitivo de cada estudante.

Ao mesmo tempo, quando a IA assume tarefas repetitivas, como correções ou parte do planejamento, libera tempo na agenda do professor, que pode dedicar mais atenção a estudantes que necessitam de acompanhamento mais próximo. Para o aluno, desde que haja limites pedagógicos bem definidos, a ferramenta pode apoiar a evolução gradual do seu nível de compreensão. Tudo isso, porém, parte de uma premissa: a IA deve aprimorar os processos de ensino e aprendizagem sem substituir o protagonismo do professor. É a intencionalidade pedagógica que transforma risco em oportunidade.

9. Se um gestor decidir hoje estruturar uma política responsável de uso de IA na escola, qual deveria ser o primeiro movimento?

O primeiro movimento para estruturar uma política responsável de uso de IA na escola é escolher ferramentas específicas e definir com clareza seus limites dentro da dinâmica pedagógica.

A construção dessa política passa por pontos centrais. É preciso estruturar agentes mais direcionados ao ensino, elaborar guias de orientação para os professores sobre criação de prompts e verificação das respostas geradas, além de estabelecer critérios claros sobre o que pode ou não ser produzido pela IA e quais mecanismos institucionais serão utilizados para acompanhar esse uso.

A eleição das ferramentas que entrarão no currículo é decisiva e deve estar vinculada ao projeto pedagógico da rede. Em Língua Portuguesa, por exemplo, o gestor pode definir como a IA será utilizada para apoiar o estudo de regras gramaticais ou de tempos verbais, orientando a elaboração de atividades em que o estudante use prompts para explorar conceitos, – sempre com parâmetros definidos.

Também faz sentido buscar apoio de assessorias pedagógicas e de editoras que já tenham soluções estruturadas, avaliando quais ferramentas podem ser incorporadas para fortalecer o trabalho docente.

Outro uso relevante é o apoio à análise de resultados. A IA generativa pode auxiliar o professor na leitura de avaliações, na construção de mapas de aprendizagem e na organização de dados por níveis de desempenho, permitindo desenhar estratégias diferenciadas para cada grupo de estudantes.

Ao estruturar essa política, o foco precisa permanecer no currículo e na formação dos estudantes. A tecnologia entra como apoio organizado, com critérios definidos desde o início, para qualificar a prática pedagógica e ampliar a capacidade de intervenção do professor.