A crescente digitalização tem vindo a transformar profundamente a forma como as organizações identificam, avaliam e desenvolvem talento. Neste contexto, destaca-se a integração de analytics – a análise sistemática de dados – e da inteligência artificial (IA) nos processos de assessment de potencial, permitindo avaliações mais rápidas, escaláveis e orientadas por dados. No entanto, este avanço tecnológico levanta também desafios relevantes relacionados com a validade, ética e autenticidade das avaliações.
Texto: Laura Andries/ Carolina Cordeiro dos Santos Imagem: Freepik
A IA, em combinação com os analytics, tem vindo a evoluir rapidamente no sentido de desempenhar um papel relevante em diferentes etapas dos processos de avaliação, permitindo analisar grandes volumes de informação, identificar padrões e realizar previsões não só sobre o desempenho futuro, mas também antever riscos (como a rotatividade), identificar lacunas de desempenho e planear as intervenções preventivas, antes da consolidação dos problemas. Adicionalmente, permite ir além da avaliação pontual de competências, possibilitando uma análise integrada e longitudinal do potencial e fit do talento. Através da recolha e tratamento dos dados obtidos em assessment, podem ser construídos modelos preditivos que estimam a probabilidade de sucesso futuro em determinadas funções ou contextos organizacionais.
Estas abordagens contribuem para reduzir a subjetividade tradicionalmente associada à avaliação de potencial, permitindo comparar talento de forma consistente, identificar relações entre a avaliação de potencial e desempenho real e apoiar decisões estratégicas de seleção, sucessão, desenvolvimento ou mobilidade. Para além disso, dashboards e relatórios automatizados facilitam a visualização e comunicação dos resultados, promovendo maior transparência associada às decisões e monitorização de métricas.
Contudo, a eficácia dos analytics depende fortemente da qualidade dos dados da definição adequada dos indicadores e da interpretação crítica dos resultados. Sem estes cuidados, existe o risco de decisões baseadas em métricas pouco relevantes ou enviesadas.
O futuro do assessment de potencial será marcado pela consolidação do binómio IA – analytics como eixo central da tomada de decisão em recursos humanos. O desafio será simultaneamente tecnológico e conceptual: definir que dados recolher, como interpretá-los de forma ética e como equilibrar eficiência com justiça e consciência humana.
No que concerne a IA, atualmente, a sua utilização no assessment ocorre sobretudo em três dimensões (HR Daily Advisor, 2025). A primeira refere-se à avaliação de competências técnicas, através de testes que integram a IA e entrevistas automatizadas onde a IA surge como parceiro que apoia no registo e resumo das respostas partilhadas pelos avaliados, assegurando padronização e eficiência. A segunda corresponde à avaliação de competências cognitivas, como raciocínio lógico, numérico, verbal e indutivo, com correção automática e relatórios que afirmam ter elevado rigor estatístico. Por fim, a IA começa também a ser aplicada à avaliação de competências comportamentais, recorrendo a processamento de linguagem natural, simulações digitais e análise de dados comportamentais para inferir competências como comunicação, adaptabilidade ou tomada de decisão. Contudo, a avaliação depende sempre da supervisão humana, já que todas as decisões referentes a pessoas devem ser tomadas por humanos. Com efeito, esta utilização de IA – em contextos de recrutamento e avaliação de talento – está a ser alvo de crescente atenção regulatória em múltiplas jurisdições. Este movimento reflete a necessidade de equilibrar a inovação tecnológica com a proteção dos direitos fundamentais dos trabalhadores e candidatos. Desde logo, a União Europeia posiciona-se na vanguarda da regulação da IA a nível mundial com o Regulamento (UE) 2024/1689, também conhecido como EU AI Act, que entrou em vigor em agosto de 2024. Este diploma adota uma abordagem baseada no risco, classificando os sistemas de IA em quatro níveis: risco inaceitável, risco elevado, risco limitado e risco mínimo.
Ora, apesar dos benefícios, existem riscos significativos identificados. Um dos principais é o efeito de «caixa-negra», em que a complexidade dos algoritmos dificulta a compreensão dos critérios subjacentes aos eventuais insights automatizados. Além disso, os sistemas podem reproduzir enviesamentos presentes nos dados históricos utilizados no treino da IA, perpetuando discriminações associadas, por exemplo, ao género, à etnia ou à idade.
O estado atual dos assessments caracteriza-se por uma tensão crescente entre eficiência tecnológica e autenticidade da avaliação. A IA tornou-se uma realidade incontornável para organizações e pessoas, tornando irrealista a sua exclusão total dos processos. Assim, olhamos para a possibilidade de utilizar modelos híbridos, ou seja, que combinam avaliações automatizadas onde a IA pode ser utilizada para facilitar o trabalho dos profissionais de recursos humanos, bem como a análise dos dados sem descurar a interpretação e validação humana.
Paralelamente, ganham relevância as questões éticas e legais, nomeadamente a proteção da privacidade, o controlo do viés algorítmico e a garantia de igualdade de oportunidades entre avaliados. Veja-se que o EU AI Act proíbe expressamente determinadas práticas consideradas de risco inaceitável, nomeadamente: o reconhecimento de emoções em contextos laborais e educativos, sistemas de pontuação social (social scoring), categorização biométrica para inferir características sensíveis como raça, orientação política ou crenças religiosas, e técnicas subliminares de manipulação.
O futuro do assessment de potencial será marcado pela consolidação do binómio IA – analytics como eixo central da tomada de decisão em recursos humanos. O desafio será simultaneamente tecnológico e conceptual: definir que dados recolher, como interpretá-los de forma ética e como equilibrar eficiência com justiça e consciência humana. A tendência regulatória aponta para uma crescente convergência internacional em torno de princípios de transparência, não discriminação e supervisão humana na utilização de IA em contextos de trabalho. As organizações que operem em múltiplas jurisdições devem antecipar a aplicação dos padrões mais exigentes, assumindo que os requisitos do EU AI Act se tornarão progressivamente o benchmark global.

Laura Andries, Consultant da SHL Portugal

Carolina Cordeiro dos Santos, Associada Sénior da Vieira de Almeida (VdA)
A SHL Portugal é uma empresa de consultoria estratégica e de tecnologia para a gestão do talento, representante das soluções do Grupo SHL, que tem uma posição de destaque mundial em assessment e talent analytics. Opera em cinco países de língua portuguesa e trabalha com centenas de organizações, dos sectores público e privado. Após celebrar 45 anos em 2024, continua a apostar na investigação e na inovação tecnológica aliada à inteligência artificial (IA).
A sociedade de advogados Vieira de Almeida (VdA) é uma organização vibrante e inquieta, inovadora, que se afirma nas aspirações de um coletivo que quer ser parte ativa da solução para os desafios sociais e ambientais que enfrentamos enquanto sociedade, mobilizando pelo exemplo de respeito, justiça e humanidade. Orgulhosa da sua história, a VdA constrói o futuro assente numa cultura que a distingue e que une em torno de um desígnio comum. Uma cultura fundada na consciência de que a cidadania é a âncora da sua prática e que faz dela uma organização aberta, inclusiva e solidária, focada nas pessoas e na justa oportunidade de realização de cada uma.
