
A Inteligência Artificial (IA) está a transformar rapidamente a forma como as empresas recrutam, avaliam e organizam o trabalho. Ferramentas capazes de analisar currículos, prever níveis de produtividade ou apoiar decisões de gestão estão cada vez mais presentes no quotidiano das organizações. Contudo, esta transformação tecnológica levanta também novas questões jurídicas. Com a entrada em vigor do Regulamento Europeu da Inteligência Artificial (AI Act), as empresas passam a operar num quadro regulatório mais exigente, que procura equilibrar inovação tecnológica com a proteção dos direitos fundamentais.
A crescente utilização da inteligência artificial no contexto laboral
A Inteligência Artificial tem vindo a integrar progressivamente a atividade das organizações, assumindo um papel relevante em diversas áreas de negócio. Atualmente, sistemas baseados em IA são utilizados para analisar grandes volumes de dados, automatizar tarefas repetitivas ou apoiar decisões operacionais e estratégicas.
No contexto das relações laborais, esta evolução é particularmente visível em áreas como o recrutamento, a gestão de desempenho, a organização de horários ou a distribuição de tarefas. Algumas plataformas permitem, por exemplo, filtrar automaticamente candidaturas, identificar perfis profissionais compatíveis com determinadas funções ou analisar padrões de produtividade.
Este fenómeno é muitas vezes designado como gestão algorítmica do trabalho, isto é, a utilização de algoritmos ou sistemas automatizados para apoiar decisões relacionadas com a organização do trabalho e a gestão de trabalhadores. A crescente adoção destas tecnologias tem levado as instituições europeias a reconhecer que o recurso a sistemas algorítmicos na gestão de pessoas levanta desafios relevantes em matéria de transparência, proteção de dados e direitos laborais.
O enquadramento Europeu: AI Act
Foi neste contexto que a União Europeia aprovou o Regulamento (UE) 2024/1689, conhecido como AI Act, que estabelece um enquadramento jurídico abrangente para o desenvolvimento e utilização de sistemas de Inteligência Artificial. O regulamento adota uma abordagem baseada no risco, classificando os sistemas de IA em diferentes categorias, consoante o impacto potencial que podem ter na segurança, nos direitos fundamentais ou na vida das pessoas: risco mínimo, risco limitado, risco elevado e risco inaceitável.
No contexto laboral, muitos sistemas utilizados para recrutamento, avaliação de desempenho ou tomada de decisões relativas à relação de trabalho podem ser considerados sistemas de risco elevado, uma vez que influenciam diretamente o acesso ao emprego ou as condições de trabalho. Nestes casos, o regulamento impõe requisitos reforçados, incluindo mecanismos de gestão de risco, supervisão humana e documentação técnica adequada.
Práticas proibidas e limites para as empresas
Para além destas obrigações, o AI Act identifica também determinadas práticas de IA consideradas inaceitáveis, que são proibidas e punidas na União Europeia. Entre essas práticas incluem-se, por exemplo:
- Sistemas que utilizem técnicas manipuladoras ou subliminares para influenciar o comportamento das pessoas;
- Sistemas que explorem vulnerabilidades associadas à idade, incapacidade ou situação socioeconómica;
- Mecanismos de classificação social com base no comportamento ou características pessoais;
- Sistemas que utilizem dados biométricos para inferir características sensíveis.
Transparência, supervisão humana e proteção de dados
Um dos princípios centrais do novo enquadramento regulatório consiste na necessidade de as empresas assegurarem transparência e supervisão humana na utilização de sistemas de IA.
Decisões relevantes para os trabalhadores – como contratação, avaliação de desempenho, renovação de contratos ou aplicação de medidas disciplinares – não deverão ser tomadas exclusivamente por sistemas automatizados, sendo essencial garantir a possibilidade de intervenção humana.
Além disso, as empresas deverão informar os trabalhadores quando sejam utilizados sistemas de IA que influenciem as condições de trabalho ou a tomada de decisões relacionadas com o emprego. No ordenamento jurídico português, esta exigência encontra já expressão no artigo 106.º do Código do Trabalho, que prevê o dever de informar os trabalhadores sobre os parâmetros, critérios e regras utilizados por algoritmos ou sistemas de inteligência artificial que afetem decisões relativas ao acesso ou manutenção do emprego.
Novas obrigações de compliance para as organizações
O quadro regulatório europeu implica também um reforço significativo das obrigações de compliance tecnológico e organizacional por parte das empresas.
Entre as medidas que poderão tornar-se necessárias, encontramos:
- Mapeamento dos sistemas de IA utilizados na organização;
- Avaliação do nível de risco associado a cada sistema;
- Realização de avaliações de impacto sobre direitos fundamentais e proteção de dados;
- Implementação de políticas internas de utilização responsável de IA;
- Desenvolvimento de programas de formação destinados a promover a literacia digital dos trabalhadores.
O incumprimento das obrigações previstas no AI Act poderá implicar sanções significativas, podendo as coimas atingir, em certos casos, 35 milhões de euros ou 7% do volume de negócios anual global da empresa, dependendo da natureza da infração.
É inquestionável que a Inteligência Artificial tem potencial para transformar profundamente a forma como trabalhamos e como as organizações tomam decisões. Contudo, a crescente utilização destas tecnologias exige também uma reflexão sobre os seus limites e sobre a forma como devem ser utilizadas no contexto laboral.
Num contexto em que a utilização de sistemas algorítmicos na gestão do trabalho continuará a crescer, a preparação atempada das organizações será essencial para assegurar não apenas a conformidade com o enquadramento jurídico aplicável, mas também a confiança dos trabalhadores e da sociedade na utilização destas tecnologias. Neste domínio, o apoio jurídico especializado assume particular relevância, sendo essencial para ajudar as empresas a avaliar riscos, implementar mecanismos de compliance adequados e estruturar políticas internas que garantam uma utilização responsável da Inteligência Artificial.
A nossa equipa de Direito do Trabalho e Segurança Social dispõe do know-how e das competências necessárias para apoiar as organizações neste processo de adaptação ao novo quadro regulatório.
Por Pedro da Quitéria Faria e Fernando Vidal Cordeiro, Área de Prática – Direito do Trabalho e da Segurança Social.


