Publicação em destaque

BURRICE OU PREGUIÇA AO EXTREMO: COLAR NÃO É SABER

Quando a Tecnologia Expõe a Preguiça Intelectual

Há episódios que não são apenas embaraçosos — são reveladores. Antes os professores e indivíduos conservadores e rigorosos criticavam o excessivo uso da 'internet' em detrimento de uma busca e pesquisa em bibliotecas e materiais físicos. Valorizavam consultas físicas sem envolvimento dessa façanha advinda de interacção virtual. Hoje em dia o demónio dessa linhagem de indivíduos, virou para a Inteligência Artificial (IA). E por que? Olhe para o episódio a seguir. 

O caso do aluno que foi “apanhado” por copiar integralmente uma resposta do ChatGPT, sem sequer o cuidado mínimo de limpar os vestígios do próprio acto, é menos sobre fraude e mais sobre falência de atitude. Não é a tecnologia que falhou. Foi o utilizador.

O detalhe que denuncia tudo, a presença de uma frase típica de assistência (“Se quiser, posso também deixar ainda mais formal…”), não é apenas um erro técnico. É um sintoma. Um sintoma de um comportamento cada vez mais comum: o uso preguiçoso da inteligência artificial como muleta, não como ferramenta. E há uma diferença abissal entre as duas coisas.

Durante muito tempo, o acesso ao conhecimento foi limitado. Exigia esforço, tempo, deslocações, leitura intensiva e, sobretudo, pensamento crítico. Hoje, com algumas palavras digitadas, é possível obter respostas estruturadas, referências organizadas e até sugestões de melhoria. Isto deveria elevar o nível. Mas, paradoxalmente, em muitos casos, está a expor o vazio.

Porque o problema não é “usar IA”. O problema é não saber usá-la.

Copiar e colar sem ler é mais do que desleixo — é abdicar do próprio processo de aprendizagem. É transformar uma ferramenta poderosa numa extensão da ignorância. O aluno em questão não foi apenas descuidado; demonstrou uma incapacidade preocupante de apropriação do conhecimento. Não filtrou, não adaptou, não questionou. Limitou-se a transportar informação como quem carrega água num cesto furado.

E isso levanta uma questão incômoda: estamos a formar estudantes ou operadores de copiar-colar?

Este tipo de episódio alimenta uma reacção previsível — e perigosa. Os mais velhos, os mais conservadores, agarram-se a estes erros para demonizar a tecnologia. Para eles, a inteligência artificial passa a ser sinónimo de fraude, preguiça e superficialidade. Rejeitam-na em bloco, como se o problema estivesse no instrumento e não na mão que o utiliza.

Mas essa leitura também é falha.

Recusar a IA por causa do mau uso é o mesmo que rejeitar livros porque alguém plagiou. Ou proibir calculadoras porque alguém não sabe fazer contas de cabeça. A história sempre puniu quem recusou ferramentas por medo ou incompreensão. E continuará a fazê-lo.

A verdade desconfortável é esta: quem não aprender a usar estas ferramentas ficará para trás. Num mundo onde a eficiência e a rapidez na resolução de problemas são cada vez mais determinantes, ignorar a inteligência artificial não é prudência — é atraso voluntário.

Contudo, usar não é o mesmo que dominar.

Dominar implica questionar, adaptar, personalizar. Implica transformar uma resposta genérica em pensamento próprio. Implica saber onde termina a máquina e começa o humano. Porque a IA pode organizar ideias, mas não substitui vivência. Pode sugerir argumentos, mas não cria convicção. Pode estruturar texto, mas não dá identidade.

E é exactamente aí que muitos estão a falhar.

O caso deste aluno não devia servir para ridicularizar — devia servir para acordar. A geração que tem nas mãos as ferramentas mais avançadas da história não pode contentar-se com o uso mais básico e irresponsável das mesmas. Isso não é evolução. É regressão disfarçada de modernidade.

A educação, por sua vez, precisa urgentemente de se ajustar. Continuar a avaliar apenas o produto final, num tempo em que esse produto pode ser gerado em segundos, é ingenuidade pedagógica. O foco tem de migrar para o processo: como o aluno pensa, como constrói, como interpreta, como defende.

Porque no fim, a questão não é se usou ChatGPT.

A questão é: houve pensamento ali dentro?

Se a resposta for não, então não houve aprendizagem — houve apenas encenação.

E encenação, mais cedo ou mais tarde, cai por terra. Sempre.



Comentários