A Inteligência Artificial (IA) está a transformar rapidamente as organizações e o dia a dia das pessoas, contudo existem um conjunto de fatores que estão a criar desafios e um ambiente de risco complexo, nomeadamente: desinformação e literacia em torno da IA; incertezas sobre o desenvolvimento e utilização responsável da tecnologia; inexistência de estruturas de governo adequadas para gerir e mitigar o risco associado às soluções baseadas em IA. Neste contexto, a regulamentação europeia, nomeadamente o EU AI Act, surge como um elemento crucial para impulsionar a confiança nas soluções de IA.
O EU AI Act tem como objetivo estabelecer um quadro regulamentar harmonizado para o desenvolvimento, colocação no mercado e utilização de sistemas de IA na União Europeia (UE). Ao classificar os sistemas e soluções de IA com base no risco que representam (os sistemas e soluções devem ser classificados em quatro níveis: proibido; elevado; limitado; mínimo), a UE pretende que sejam assegurados um conjunto de requisitos rigorosos ajustados ao perfil de risco da solução de IA.
Uma das principais formas pelas quais o EU AI Act pretende impulsionar a confiança é através da promoção da transparência e da responsabilização. Os sistemas de IA estão sujeitos a requisitos de documentação, rastreabilidade, explicabilidade e auditabilidade, permitindo que os utilizadores e as autoridades compreendam como funcionam e como tomam decisões.
Complementarmente, o EU AI Act requer que os sistemas de IA sejam desenvolvidos e utilizados de forma a proteger os direitos fundamentais, como a não discriminação, a proteção de dados e a liberdade de expressão.
Ao estabelecer regras claras e exigências rigorosas, acreditamos que a regulamentação europeia (que se aplica a soluções igualmente desenvolvidas noutras geografias que sejam utilizadas na UE) contribui para dissipar as preocupações do público em relação à IA e a promover a confiança nas suas aplicações, não impactando a inovação e evolução da tecnologia. No entanto, é importante reconhecer que a regulamentação por si só não é suficiente para garantir a confiança na IA, sendo igualmente crítico investir na mitigação do risco associado aos fatores identificados (desinformação e literacia em IA, utilização responsável e no governo das soluções baseadas na tecnologia).
A IA é uma realidade transformadora, promissora e inevitável no dia a dia das organizações e das pessoas. No entanto, para atingir o potencial e benefícios esperados é necessário endereçar proativamente os desafios e riscos associados, que versam acima de tudo a confiança.
A KPMG elaborou um estudo (em conjunto com a Universidade de Melbourne, que conta com uma participação de mais de 48 mil pessoas e analisa as questões de confiança, utilização e atitudes em relação à IA) que revela que em Portugal existe uma baixa confiança e aceitação da IA: 36% dos inquiridos dizem confiar na IA, em comparação com a média global de 46%, apesar do elevado nível de aceitação desta tecnologia e de utilização em contexto profissional (70%). Além disso, 93% dos portugueses desconhecem quaisquer leis, regulamentos ou políticas aplicáveis à IA em Portugal. Estes resultados sublinham a necessidade urgente de aumentar a literacia em IA e de promover uma maior sensibilização para os benefícios e riscos da IA.
O estudo (que pode ser consultado na íntegra em kpmg.pt/trustai) também revela que os portugueses têm sentimentos mistos sobre a IA, estando simultaneamente otimistas e preocupados: 35% consideram que os benefícios superam os riscos; 34% consideram que os riscos da IA superam os benefícios, sendo que 85% dos portugueses estão preocupados com os efeitos negativos associados à tecnologia (incluindo riscos de cibersegurança e perda de ligação e interação humanas). Apesar destas preocupações, 81% dos portugueses estão dispostos a confiar num sistema de IA se houver garantias de que a utilização dos sistemas é fiável (por exemplo, se as pessoas tiverem o direito de não autorizar a utilização dos seus dados pelo sistema e a exatidão e fiabilidade dos sistemas de IA forem controladas). Além disso, 89% dos portugueses entendem como necessárias leis e medidas para combater a desinformação gerada por IA, e 88% concordam que as empresas de notícias e de redes sociais têm de garantir que as pessoas consigam detetar quando os conteúdos são gerados por IA (que consideramos igualmente aplicável noutros contextos).
Em conclusão, sem confiança não há adoção e por consequência o potencial é perdido. O EU AI Act é a oportunidade para as organizações gerarem o contexto de segurança e transparência na utilização da IA.
As organizações em Portugal necessitam de adotar e implementar o AI Act o mais rápido possível de forma a obter vantagens competitivas. Isso inclui a realização de uma avaliação de impacto, o desenvolvimento de modelos operativos e a implementação das ferramentas necessárias para integrar práticas de confiança by design num ciclo ágil de ideação e implementação de soluções de IA.
Ao implementar um modelo de governo, os processos e as ferramentas certas, as organizações podem inovar e garantir de forma eficiente que as soluções de IA atendem às expectativas dos seus clientes e stakeholders.
Artigo de David Oliveira para a revista Indústria Portuguesa, edição Abril - Junho 2025.
Ajudamos os clientes a aproveitar o poder e o potencial da IA. Da estratégia à implementação. Pequenos passos para resolver problemas que parecem insolúveis. Com base na confiança. Saiba mais entrando em contacto connosco abaixo. É possível com IA. É possível com a KPMG.