A inteligência artificial (IA) voltou a ser tema de debate, desta vez organizado pelo Instituto Superior Técnico em parceria com o PSuperior (jornal Público). A 8 de maio, durante a JobShop da Associação dos Estudantes do Técnico (AEIST), o Técnico Innovation Center acolheu dezenas de espectadores que assistiram a uma discussão sob o mote “Como é que a Inteligência Artificial vai revolucionar a Academia e os métodos de ensino?”, inserida na rubrica PSuperior Talks do Público e emitida também em formato livestream.
O painel contou com a presença de Mário Figueiredo, professor do Técnico e investigador no Instituto de Telecomunicações (IT), Sancha Barroso, estudante do Mestrado em Engenharia Informática e de Computadores, José Varela, AI Evangelist na NTT Data, e Paulo Dimas, CEO do Centro para IA Responsável e Vice-Presidente de Inovação da Unbabel, uma spin-off do Técnico. A moderação ficou a cargo de Victor Ferreira, jornalista do Público.
“É um enorme prazer ter aqui esta iniciativa”, afirmou Rogério Colaço. No seu discurso de abertura do evento, o presidente do Técnico recordou também que não é a primeira vez que a Escola acolhe um debate em colaboração com o Público. David Pontes, diretor deste jornal, agradeceu ao Técnico o acolhimento nas “fantásticas instalações” do Técnico Innovation Center e defendeu que a IA “ainda tem muito para dar”.
A conversa arrancou com uma pergunta colocada a Sancha Barroso referente ao que mudou na sua experiência enquanto estudante ao longo dos últimos anos de evolução da IA. “Foi um ponto de viragem, definitivamente”, esclareceu a aluna, referindo-se particularmente a questões de produtividade. Durante a escrita da dissertação de mestrado, tem visto ferramentas como o ChatGPT como “um apoio personalizado ao ensino”, sublinhando que não recorre a este mecanismo como primeiro recurso.
“Em tarefas de cariz manual, que não requeiram raciocínios complexos, mas que demoram o seu tempo”, a aluna diz que, recorrendo à IA, “consegue fazê-lo numa questão de segundos”, podendo concentrar o seu pensamento “em objetivos mais fundamentais” do seu trabalho. A título de exemplo deste tipo de tarefa, referiu alterações à formatação de um grande número de tabelas num documento.
“A máquina já substitui o aluno. Quando é que vai substituir o professor?” – o moderador lançou este desafio a Mário Figueiredo, mas o docente prontamente o contestou, rindo-se. “A máquina, quanto muito, substitui o aluno na avaliação, mas não o substitui na aprendizagem”, defendeu. “Quando o ChatGPT apareceu, as pessoas ficaram preocupadas – ‘e agora, como é que vamos avaliar?’”, recordou o professor. Para si, essa reação “diz mais acerca da avaliação do que acerca do ChatGPT”.
Identificando “um excesso de foco na avaliação”, refletido tanto em docentes como em estudantes, o investigador vê as ferramentas de IA como um elemento disruptor “no bom sentido” que, contudo, “não substitui a parte mais humana ou relacional de estímulo da curiosidade e de apreciação pelos assuntos”. O professor destacou também que “não [ensina] nada a ninguém”. O seu papel é, ao invés disso, “[criar] nas outras pessoas a vontade de aprender”. “Estamos numa boa altura de repensar as fundações do ensino”, sublinhou, em jeito de resumo da sua intervenção.
Mesmo sendo um debate focado nos impactos na Academia, não foram apenas os membros desta que tomaram a palavra. No evento – que acolheu perguntas dos espectadores da livestream do Público –, também houve lugar para representantes do setor empresarial partilharem as suas perspetivas. Paulo Dimas lembrou que “[se fala] de aumentos de produtividade de 20% a 30% a nível de produção de código” quando se recorre a algumas ferramentas de IA, o que “é ótimo porque poupa horas de desenvolvimento e de tempo dos engenheiros”. Salientou ainda a utilidade destes mecanismos para simplificar e explicar grandes quantidades de código a um utilizador de uma forma rápida e clara.
Por sua vez, José Varela vê como “absolutamente basilar e fundamental conhecer como funcionam estes modelos”, começando já a “experimentar e perceber em que casos funcionam bem e em que casos funcionam mal”. Deixou também uma palavra de cautela, dando o exemplo de uma pessoa hipotética que saiba fazer multiplicações complexas mentalmente, caso em que, afirmou, é expectável que a mesma saiba fazer operações mais simples (como somas curtas). “Isto não é verdade para os modelos de inteligência artificial”, preveniu – “eles fazem algumas coisas brilhantemente, enquanto que têm extrema dificuldade em fazer outras coisas que seriam quase básicas para nós”.
O debate pode ser visto na íntegra no site do Público.