info@goldenblatt.co.uk
49 Russell Square, London, UK

News & MediaFlash AlertAI ACT: Uma Nova Era de Fiscalização e Responsabilidade para a Inteligência Artificial

29 de Agosto, 2025

 

O Regulamento (UE) 2024/1689, de 13 de junho, conhecido como AI ACT, estabelece, pela primeira vez na União Europeia, um enquadramento jurídico vinculativo para o desenvolvimento, colocação no mercado e utilização de sistemas de inteligência artificial (IA).

 

Assim, com foco na mitigação de riscos e na proteção dos direitos fundamentais, o AI ACT estabelece um quadro de obrigações para fornecedores, utilizadores e outros intervenientes no ciclo de vida de sistemas de IA, fixando um regime contraordenacional, pautado por sanções proporcionais e dissuasoras da violação das normas estabelecidas.

 

O preço da não-conformidade: infrações e coimas no AI ACT

O AI ACT define sanções administrativas com base em limites definidos no mesmo diploma, que refletem a gravidade da infração e a dimensão económica da entidade infratora.

 

Ainda que de forma não expressa, as infrações das normas previstas no AI ACT encontram-se classificadas como muito graves, graves e leves:

  • As infrações muito graves são aquelas que dizem respeito a práticas proibidas, nos termos do artigo 5.º, como é o caso colocação no mercado de sistemas de IA que recorram a técnicas subliminares, manipuladoras ou enganadoras para influenciar de forma substancial o comportamento de pessoas, prejudicando seriamente a sua capacidade de tomar decisões informadas e levando-as a agir de modo que lhes possa causar danos significativos.
  • As infrações graves reportam-se à inconformidade com os requisitos gerais ou aplicáveis a modelos de IA de finalidade geral, que não os estabelecidos no artigo 5.º. Enquadram-se neste grupo de infrações, por exemplo, a violação de obrigações relativas a sistemas de alto risco, incluindo falhas nos processos de avaliação de conformidade, documentação técnica ou medidas de mitigação de riscos.
  • As infrações leves respeitam à prestação de informações incorretas, incompletas ou falaciosas às entidades ou autoridades nacionais competentes.

 

A moldura das coimas aplicadas varia consoante a sua classificação, assim:

  • Infrações muito graves: aplicação de coimas até € 35.000.000,00 ou, tratando-se de uma empresa, até 7 % do seu volume de negócios anual a nível mundial no exercício anterior, consoante o que for mais elevado;
  • Infrações graves: aplicação de coimas até € 15.000.000,00 ou, tratando-se de uma empresa, até 3 % do seu volume de negócios anual a nível mundial no exercício anterior, consoante o que for mais elevado;
  • Infrações leves: aplicação de coimas até € 7.500.000,00 ou, tratando-se de uma empresa, até 1 % do seu volume de negócios anual total a nível mundial no exercício anterior, consoante o que for mais elevado.

 

Para as pequenas e médias empresas, aplicar-se-á o valor mais baixo entre os dois montantes.

 

Quem fiscaliza? Estrutura de controlo do AI ACT

A implementação prática do AI ACT deve assentar não só em regras claras, mas também num modelo de fiscalização eficaz e estruturado, que assegura o cumprimento das obrigações legais por parte de todos os intervenientes no ciclo de vida dos sistemas de inteligência artificial.

 

Ao abrigo do regulamento, cada Estado-Membro deverá designar as autoridades nacionais competentes para proceder fiscalização do cumprimento do regulamento e uma autoridade nacional de controlo, com competências como autoridade notificadora e fiscalizadora do mercado.

 

Estas entidades serão responsáveis pela aplicação das coimas, pela investigação de infrações e pela comunicação das mesmas à Comissão Europeia, que terá um papel coordenador, garantindo uma abordagem harmonizada entre Estados-Membros.

 

No caso português foram designadas 14 entidades setoriais competentes para este efeito, já tendo sido notificadas à Comissão Europeia: Autoridade Nacional de Comunicações (ANACOM); Inspeção-Geral das Finanças (IGF); Gabinete Nacional de Segurança (GNS); Entidade Reguladora para a Comunicação Social (ERC); Inspeção-Geral da Defesa Nacional (IGDN); Inspeção-Geral dos Serviços de Justiça (IGSJ); Polícia Judiciária (PJ); Inspeção-Geral da Administração Interna (IGAI); Inspeção-Geral da Educação e Ciência (IGEC); Entidade Reguladora da Saúde (ERS); Autoridade de Segurança Alimentar e Económica (ASAE); Inspeção-Geral do Ministério do Trabalho, Solidariedade e Segurança Social (IGMTSSS); Autoridade para as Condições do Trabalho (ACT); Entidade Reguladora dos Serviços Energéticos (ERSE).

 

O modelo de fiscalização do AI ACT deverá combinar a supervisão nacional e coordenação europeia, procurando garantir equilíbrio entre inovação e proteção dos direitos fundamentais. As empresas deverão, desde já, preparar-se para responder de forma célere e transparente às exigências destas entidades, nomeadamente através da implementação de políticas internas de compliance e auditoria contínua.

 

Da teoria à prática – as datas-chave da implementação

A entrada em vigor do AI ACT marca apenas o início de um processo de implementação faseado, cuidadosamente estruturado para permitir uma adaptação progressiva dos Estados-Membros, empresas e outras entidades envolvidas.

 

Os próximos passos da implementação são os seguintes:

  • A partir de 2 de agosto de 2025: tornar-se-ão aplicáveis as regras referentes às autoridades notificadoras, modelos de IA de finalidade geral, governance, sanções e confidencialidade;
  • A partir de 2 de agosto de 2026: entrada em vigor das restantes matérias do regulamento.
  • A partir de 2 de agosto de 2027: será obrigatória a conformidade plena para sistemas de IA de risco elevado.

 

O regime contraordenacional do AI ACT não é apenas uma formalidade jurídica, é um sinal claro de que a União Europeia encara a inteligência artificial como uma matéria de interesse público e de proteção de direitos fundamentais.

 

O avultado valor das coimas previstas para a infração das regras previstas no regulamento representa um real e concreto risco financeiro, que recomenda, desde já, o desenvolvimento de uma cultura interna de compliance real e consistente. Sem políticas e processos de controlo eficazes, será inevitável que organizações que lidam com IA possam, mesmo involuntariamente, incorrer em infrações. Implementar mecanismos internos de auditoria, registos técnicos, controlo documental e formação contínua não é apenas prudente, é essencial para garantir conformidade e proteger a reputação das organizações num cenário regulatório que tende a ser cada vez mais exigente. Mais do que uma obrigação, o compliance em matéria de IA deve ser encarado como um investimento estratégico.

 

A preparação atempada para este novo quadro legal será crucial para garantir não apenas a conformidade legal e prevenir o risco financeiro, mas também a confiança dos cidadãos e operadores económicos numa utilização de IA segura e responsável.

 

por Alexandra Mota Gomes e Margarida Sousa de Magalhães, Área de Prática – Criminal, Contraordenacional e Compliance

https://adcecija.pt/wp-content/uploads/2020/06/logo_horizontal_b-768x75.png
LISBOA
Edifício Amoreiras Square
Rua Carlos Alberto da Mota Pinto, 17 - 2.º piso
1070-313 Lisboa
PORTO
Rua Eugénio de Castro, n.º 352, 2.º andar, sala 26
4100-225 Porto
BRAGA
Rua de Janes, n.º 20, 1.º andar, sala 101
4700-318 Braga

* Chamadas sem custos adicionais, sujeito apenas à tarifa de base.

SOCIAL