Quando Steven Trooster retornou ao campus no início de 2023, após as férias de Natal, não houve alívio no novo ano. Isso se deveu ao recente lançamento da versão pública do ChatGPT. “Houve pânico”, lembra o orientador educacional. “Estava claro que isso teria grandes implicações para o ensino superior.”
Pouco tempo depois, começaram a surgir histórias de estudantes que utilizaram com sucesso o chatbot gratuito da OpenAI para escrever seus trabalhos. A IA tem sido um tema em alta nas universidades holandesas desde então, embora muito sobre o fenômeno permaneça desconhecido. A inteligência artificial é uma ameaça fundamental à qualidade do ensino acadêmico e da pesquisa, ou uma ferramenta revolucionária “promissora” como a calculadora já foi? E com que frequência estudantes e pesquisadores realmente usam programas como o ChatGPT ou o Midjourney?
A Vox lançou uma pesquisa para coletar opiniões sobre isso na Universidade Radboud. Mais de 350 estudantes e 130 acadêmicos responderam a questionários sobre o uso de IA na educação e na pesquisa.
A IA está bem integrada no campus. Setenta por cento dos alunos a utilizam uma ou mais vezes por semana. Esses números corroboram um estudo recente sobre habilidades em IA realizado pela Radboud In’to Languages com mais de 300 alunos do primeiro ano da Faculdade de Ciências. Quase dois terços relataram uso regular a frequente de IA, enquanto um quarto afirmou que raramente ou nunca a utiliza.
As porcentagens também se alinham com as estimativas dos acadêmicos. A maioria acredita que pelo menos três quartos dos estudantes usam IA para seus estudos. Apenas 5% suspeitam que menos de um quarto o faça. Metade dos próprios acadêmicos usa IA mensalmente ou com mais frequência.
A IA tornou-se parte integrante da vida no campus. Ferramentas como o ChatGPT estão facilitando o dia a dia de alunos e acadêmicos, de acordo com uma pesquisa da Vox. No entanto, até onde isso pode ir ainda é um tópico de debate. A universidade está trabalhando em regulamentações mais rígidas.
O ChatGPT é de longe a ferramenta mais popular. Seis em cada sete estudantes e pesquisadores já utilizaram esse modelo de linguagem de grande porte (LLM) em algum momento. Outros programas de IA generativa, como Perplexity, Gemini e Deepseek, ficam muito atrás, com taxas de utilização de apenas 5% a 10%.
Pesquisando no Google
“Economia de tempo”, “conveniência”. Pergunte aos alunos por que eles usam IA nos estudos e essas respostas se destacam. Dois terços os apontam como motivos. “Eu vejo como uma busca no Google, mas mais eficiente”, explica um aluno. “Ler um resumo gerado por IA pode ajudar na compreensão de um texto”, diz outro. Apenas um em cada seis alunos usa o ChatGPT com o objetivo de obter notas mais altas.
Acadêmicos usam ferramentas de IA para propósitos semelhantes. De um quarto a um terço mencionam a busca por informações, explicações, resumos e tarefas administrativas, como escrever cartas, documentos de políticas ou entradas no catálogo de cursos. O ChatGPT é descrito por um professor como um parceiro de conversação completo, “com uma quantidade incrível de conhecimento e percepção”, embora, assim como os humanos, às vezes cometa erros.
Quase um em cada cinco acadêmicos utiliza o ChatGPT para criar tarefas para os alunos. Eles também usam IA generativa para verificação ortográfica e gramatical, traduções e escrita de código. “Temos doutorandos do mundo todo, e eles às vezes têm dificuldades com o inglês ao escrever suas dissertações”, explica o professor de física Nicolo de Groot, um usuário entusiasmado de IA. “Eles usam o ChatGPT para aprimorar seus textos.” De Groot, ex-vice-reitor de educação, também usa IA para desenvolver provas. “Uma das perguntas da prova mais recente foi: faça esta pergunta ao ChatGPT e avalie criticamente se a resposta está correta.”
Iris van Rooij, por outro lado, vê com consternação a adoção da IA por alunos e funcionários. Como professora de IA, Van Rooij sempre criticou publicamente o que chama de “hype” em torno das ferramentas promovidas por grandes empresas de tecnologia. “É preocupante que as universidades estejam acompanhando isso.” Ela acredita que essas ferramentas não deveriam ser usadas: cada prompt consome grandes quantidades de energia, os LLMs são treinados com base em textos protegidos por direitos autorais e seus modelos subjacentes são inacessíveis e, portanto, não verificáveis.
Mas, acima de tudo, ela vê ferramentas como o ChatGPT como desastrosas para o desenvolvimento acadêmico. “Seu próprio cérebro é desligado. O propósito de uma universidade é aprender a pensar de forma independente e crítica.” Resumindo, ela enfatiza, é um excelente exemplo de uma habilidade analítica desenvolvida durante a formação acadêmica. “Você interpreta informações através de suas próprias lentes cognitivas, o que leva a insights diferentes dos que outra pessoa poderia ter. É disso que se trata a ciência.” Se você alimentar o ChatGPT com tudo, acabará com resultados homogêneos.
Software de detecção
Como os instrutores estão lidando com o uso de IA pelos alunos? Metade acredita que os alunos se beneficiam do uso não autorizado em seus cursos. Quase três quartos verificam isso de alguma forma, como prestando atenção ao estilo de escrita e ao uso da fonte. Apenas 5% usam software de detecção de IA.
Apesar dos benefícios mencionados pelos alunos, eles geralmente não acreditam que a IA leve a um desempenho acadêmico muito melhor ou pior. Quase todos afirmam que conseguiriam viver sem ela, embora a maioria sinta falta das ferramentas. Um aluno de mestrado destaca que o ChatGPT torna a educação mais acessível “para pessoas que tradicionalmente têm dificuldade com a escrita, como aquelas com dislexia”.
Notavelmente, um em cada nove entrevistados afirma nunca usar IA. O motivo mais citado (por um terço dos não usuários) é a falta de confiabilidade dos resultados do ChatGPT, embora preocupações ambientais e de direitos autorais também desempenhem um papel. Vinte por cento dos não usuários consideram o uso de IA uma trapaça, e 12% têm principalmente medo de serem pegos.
A confiabilidade também é uma preocupação para os alunos que usam o ChatGPT. Cinco em cada seis verificam regularmente as respostas recebidas. Um quarto afirma que sempre o faz.
Regras mais claras
Há um forte desejo por regulamentações claras, de acordo com quase todos os alunos e funcionários. A maioria dos instrutores acredita que essas regras devem ser estabelecidas no nível universitário ou docente. Os alunos observam que as políticas atuais de IA variam bastante. Em um curso, o uso de IA pode ser completamente proibido; em outro, é incentivado para experimentação. Os instrutores são mais propensos a dizer que as diretrizes atuais são muito brandas (41%) do que muito rígidas (15%).
‘Os alunos precisam saber onde estão’
Surpreendentemente, um em cada seis alunos afirma não ter ideia de quais são as regras de IA em seu programa. Entre os acadêmicos, mais de um terço selecionou a mesma resposta. “A universidade deveria incluir IA no REA (Regulamento de Educação e Exames)”, argumenta um aluno. “Os alunos precisam saber sua posição.”
Quando as regras são claras, os alunos geralmente não as quebram em massa. Apenas 5% afirmam fazê-lo com frequência, 15% ocasionalmente. Apenas oito dos 353 alunos relataram ter sido pegos por uso não autorizado de IA. As consequências incluíram nota mais baixa, reprovação ou encaminhamento para a banca examinadora.
Independentemente de como as futuras regulamentações se desenvolvam, a professora de IA Iris van Rooij argumenta que proibir completamente a IA não é a solução. “Já temos padrões de integridade acadêmica. Eles também podem ser aplicados aqui. Por exemplo, não se pode reivindicar a autoria de um texto escrito ou coescrito por outra pessoa. Isso inclui o ChatGPT, que é treinado com base no trabalho de outros.”
Ela acha útil explicar as desvantagens do ChatGPT aos alunos. “Essa também é responsabilidade dos educadores. Costumo ouvir: por que nunca nos disseram isso?” Ela também pede que os alunos assinem uma declaração prometendo concluir todas as tarefas sozinhos.
Fotocopiadoras
E os pesquisadores? Quando podem usar ferramentas de IA? A grande maioria acredita que ferramentas de IA são aceitáveis, com ou sem condições, para análise de dados, elaboração de pedidos de financiamento e criação de materiais educacionais. “Adotamos fotocopiadoras, processadores de texto e a internet, não é?”, pergunta um entrevistado retoricamente.
Em geral, os pesquisadores acreditam que a IA impacta positivamente a qualidade da pesquisa (pontuação média de 7 em 10). No entanto, eles distinguem claramente entre os tipos de IA. Um modelo de linguagem como o ChatGPT tem aplicações muito diferentes de softwares de IA que analisam raios X ou preveem estruturas moleculares tridimensionais como o AlphaFold. Para essas “tarefas computacionais e de reconhecimento complexas, a IA na forma de aprendizado de máquina pode ser extremamente útil”, enfatiza um entrevistado.
“A IA está mudando a maneira como fazemos as coisas. Não seria correto manter isso fora dos muros da universidade.”
Pesquisadores são muito mais céticos quanto ao uso de IA para avaliação da qualidade acadêmica, como avaliação de alunos ou revisão por pares. Apenas 7,5% consideram isso incondicionalmente aceitável. “Sou […] contra o uso de IA generativa para transformar resultados de pesquisa em artigos ou outros produtos escritos”, explica um pesquisador. “Essas são habilidades que todo pesquisador deve possuir.”
Ainda assim, a IA se infiltrou no processo de revisão por pares, informou recentemente a Nature. A revista citou um ecologista francês que recebeu um comentário de revisão dizendo: “Aqui está uma versão revisada da sua avaliação, com mais clareza e melhor estrutura”. De acordo com uma pesquisa da editora Wiley, um em cada cinco pesquisadores às vezes usa IA para revisão por pares. Os críticos temem o surgimento de uma “câmara de eco” onde a IA lida tanto com a redação quanto com a avaliação de publicações científicas.
continua …