Campus e Comunidade

A evolução das redes neurais descortinada pelo professor Keshab Parhi

O docente da University of Minnesota partilhou o seu conhecimento na área com a comunidade do Técnico em mais uma “IST Distinguished Lecture”.

Foi perante uma ampla audiência, composta por docentes, investigadores e alunos do Técnico, que o professor Keshab Parhi, docente da University of Minnesota e conceituado especialista na área de sistemas de processamento de sinal e em circuitos Very Large Scale Integration (VLSI), conduziu mais uma “IST Distinguished Lecture”, na passada sexta-feira, 19 de novembro.

As redes neurais assumiram um lugar de destaque na palestra, como, aliás o tema -“Accelerator Architectures for Deep Neural Networks: Inference and Training” – descortinava desde logo.

Com uma primeira introdução histórica ao tema, o orador lembrou que após a mecanização, eletrificação, automação e digitalização, a personalização constitui o próximo grande passo tecnológico. Graças a este conceito, já presente no nosso quotidiano, organizações e empresas têm vindo a conseguir automatizar tarefas até então manuais, como o reconhecimento de voz e a leitura e compreensão de imagens e vídeos. Os exemplos da aplicação destas redes compreendem diversas áreas do conhecimento e organizações em segmentos variados.

Nenhum aspeto ficou ao acaso na exposição do orador que partindo de uma breve revisão da história destes sistemas, abordando o trabalho realizado em PermDNN e apresentando ainda o recente trabalho sobre LayerPipe, uma abordagem para o treino de redes neurais profundas que conduz a condutas simultâneas intra e inter-camadas (ICCAD-2021).

Em jeito de conclusão, o professor Keshab Parhi realçou as inúmeras oportunidades que existem nesta área, evidenciando que os “aceleradores para treino de redes neurais são semelhantes à conceção de sistemas de processamento digital de sinais (DSP)” e salientando que estes “exigirão menos acesso à memória, menos consumo de energia e podem aumentar a velocidade do treino”.