info@goldenblatt.co.uk
49 Russell Square, London, UK

News & MediaLatest NewsSerão os empregadores e trabalhadores impactados pela “AI ACT”?

30 de July, 2024

A 01 de agosto de 2024, entrará em vigor o Regulamento da Inteligência Artificial (IA), que vem estabelecer, a nível europeu, a primeira regulação relacionada com a inteligência artificial e seus riscos.

Há muito que o mundo vem sendo assoberbado e diariamente confrontado com sistemas de inteligência artificial, os quais podem ser bem ou mal utilizados. Para que se saiba discernir quando estamos a dominar estes sistemas de quando somos dominados por eles, procurou-se regulamentar a utilização dos mesmos consoante os respetivos níveis de risco.

Por outras palavras, o regulamento procura antecipar os riscos de utilização dos sistemas de IA, sendo que, a partir dessa avaliação, dirá quais as obrigações que impendem sobre os utilizadores. Claro que, quanto maior o risco, maiores serão as obrigações e cuidados a ter.

E esta regulamentação impôs-se porque, por um lado, ouvimos recorrentemente preocupações sérias e legítimas acerca dos limites e potencialidades da IA e, por outro, assistimos frequentemente a algum ceticismo e resistência à IA. Mas a verdade é que os sistemas de IA vieram para ficar e serão parte da sociedade, não sendo o mundo corporativo e o mercado de trabalho exceção. E nada melhor do que a regulação para tornar algo mais fiável.

Assim, duas perguntas se impõem: 1. O que é o ‘’AI ACT’’ na perspetiva laboral?; 2. O que implica, em termos de deveres e obrigações para o empregador, no âmbito das relações laborais?

 

  1. Na perspetiva laboral, o Regulamento de IA propõe-se a analisar a utilização de sistemas de IA nas relações de trabalho desde o processo de recrutamento e seleção até ao termo do vínculo laboral. A partir dessa análise e avaliação de risco da utilização dos sistemas de IA, o Regulamento visa proteger tanto o empregador, quanto o trabalhador de práticas consideradas abusivas e de utilização desviante dos sistemas, nomeadamente através de medidas como:

a) Proibição da utilização de sistemas de categorização biométrica que classifiquem individualmente as pessoas com base na sua biometria para deduzir ou inferir dados sensíveis, como sejam a raça, a filiação sindical, as convicções religiosas ou filosóficas, ou a orientação sexual;

b) Proibição da utilização de sistemas de IA concebidos para reconhecer emoções nos locais de trabalho.

Proibições como estas trazidas pelo Regulamento devem ser vistas como positivas, na medida em que impedem a perpetuação de estigmas e práticas discriminatórias e protegem o trabalhador na sua esfera privada.

 

  1. O Regulamento traz alguns deveres e obrigações destinados aos empregadores, tais como:

a) Tomar medidas técnicas e organizativas adequadas para garantir que os sistemas de IA de risco elevado são utilizados de acordo com as respectivas instruções de utilização, ou garantir que as tarefas de supervisão humana são executadas por quem tenha adequadas competências;

b) Dever de ministrar formação, de molde a garantir que os trabalhadores e outras pessoas envolvidas na utilização dos sistemas de IA em seu nome têm conhecimentos suficientes na matéria, promovendo a literacia em IA;

c) Dever de informar os trabalhadores e os seus representantes quando seja implementado ou utilizado um sistema de IA de risco elevado no local de trabalho;

Relativamente a este dever de informação, o Regulamento remete para as regras e procedimentos estabelecidos na legislação e nas práticas da UE e nacionais nesta matéria.

Recorde-se aqui que, aquando da entrada em vigor da Agenda do Trabalho Digno, a 01 de maio de 2023, foram já as relações laborais impactadas por alguma novidade em termos de IA, concretamente pelo dever de informação previsto no artigo 106.º, n.º 3, al. s) do Código do Trabalho, que prevê que ‘’O empregador deve prestar ao trabalhador, pelo menos, as seguintes informações: (…) s) Os parâmetros, os critérios, as regras e as instruções em que se baseiam os algoritmos ou outros sistemas de inteligência artificial que afetam a tomada de decisões sobre o acesso e a manutenção do emprego, assim como as condições de trabalho, incluindo a elaboração de perfis e o controlo da atividade profissional.’’

 Ou seja, com o Regulamento, este dever que já existe para os empregadores nacionais sai reforçado.

 

d) Dever de avaliar o impacto sobre os direitos fundamentais antes de implementar um sistema de IA.

 

Diante deste considerável impacto que o Regulamento trará à ordem jurídica nacional e ao plano juslaboral, o que podem (sendo que é um poder-dever) as entidades empregadoras fazer?

A resposta passará pela criação de um plano de ação, que pode traduzir-se na implementação de um ‘’programa de IA’’ e/ou na criação de uma ‘’política interna de IA’’, analisando, em primeiro lugar, se a empresa é abrangida pelas obrigações e, em segundo lugar, se a empresa utiliza ou pretende implementar sistemas de IA de risco elevado ou não.

São considerados sistemas de IA de risco elevado aqueles que versam sobre:

a) recrutamento e seleção, designadamente para anúncios de empregos, análise e filtros de candidaturas e avaliação de candidatos;

b) tomada de decisões que afetem as condições de trabalho, a progressão na carreira cessação do contrato ou a atribuição de funções baseada no comportamento individual ou caraterísticas pessoais do trabalhador;

c) acompanhamento e avaliação do desempenho e da conduta dos trabalhadores.

 

Não são considerados sistemas de IA de risco elevado aqueles que não representem um risco significativo de causar danos à saúde, segurança ou direitos fundamentais dos trabalhadores e que não impactem significativamente a tomada de decisões, exceto nos casos que envolvam a definição de perfis de indivíduos.

Dito isto, do Regulamento não resulta muito clara a destrinça entre sistemas de risco elevado e sistemas sem risco elevado, pelo que a Comissão Europeia fez saber que serão desenvolvidas orientações específicas com uma lista abrangente de exemplos práticos de utilizações de sistemas de IA classificadas por nível de risco.

O que é facto é que as empresas têm de munir-se e preparar caminho, ‘’para ontem’’. Caso sejam abrangidas e não cumpram com o disposto no Regulamento, as empresas ficam expostas a potenciais coimas e a eventuais indemnizações por violação dos direitos fundamentais das pessoas afetadas, sendo certo que as queixas podem advir não apenas dos trabalhadores, como dos seus representantes, sindicatos, ACT ou da própria autoridade de controlo que supervisiona o Regulamento da IA.

 

Concretamente, e olhando o quadro sancionatório, as coimas podem variar de:

  • € 35 milhões ou 7% do volume de negócios anual (o que for superior) para violações de práticas de IA proibidas;
  • € 15 milhões ou 3% para a violação de outras obrigações;
  • € 7,5 milhões ou 1% por prestação de informações incorretas.
  • Para as PME, incluindo start-ups, as coimas aumentarão para o menor dos montantes e percentagens máximos acima referidos.

 

Em conclusão, as empresas devem fazer, a breve trecho, uma análise de 6 passos:

  • Verificar se, na sua empresa, são utilizados sistemas de IA;
  • Categorizar os sistemas de IA (risco elevado ou não);
  • Consoante o nível de risco, verificar quais as obrigações que sobre si impendem;
  • Auditar os algoritmos e os sistemas de IA através da AIDF – Avaliação de Impacto sobre os Direitos Fundamentais e da AIPD – Avaliação de Impacto na Proteção de Dados, em estreita e imperativa ligação com o RGPD;
  • Independentemente do nível de risco, apostar na literacia em IA, através de ações de formação e sensibilização;
  • Desenvolver e implementar uma política interna sobre a utilização correta e conforme dos sistemas de IA pelos trabalhadores.

 

por Pedro da Quitéria Faria e Isabel Araújo Costa, Área de Prática – Direito do Trabalho e da Segurança Social

https://adcecija.pt/wp-content/uploads/2020/06/logo_horizontal_b-768x75.png
LISBOA
Edifício Amoreiras Square
Rua Carlos Alberto da Mota Pinto, 17 - 2.º piso
1070-313 Lisboa
PORTO
Rua Eugénio de Castro, n.º 352, 2.º andar, sala 26
4100-225 Porto
BRAGA
Rua de Janes, n.º 20, 1.º andar, sala 101
4700-318 Braga

* Chamadas sem custos adicionais, sujeito apenas à tarifa de base.

SOCIAL