A Inteligência Artificial (IA) está a transformar rapidamente as organizações e o dia a dia das pessoas, contudo existem um conjunto de fatores que estão a criar desafios e um ambiente de risco complexo, nomeadamente: desinformação e literacia em torno da IA; incertezas sobre o desenvolvimento e utilização responsável da tecnologia; inexistência de estruturas de governo adequadas para gerir e mitigar o risco associado às soluções baseadas em IA. Neste contexto, a regulamentação europeia, nomeadamente o EU AI Act, surge como um elemento crucial para impulsionar a confiança nas soluções de IA.
O EU AI Act tem como objetivo estabelecer um quadro regulamentar harmonizado para o desenvolvimento, colocação no mercado e utilização de sistemas de IA na União Europeia (UE). Ao classificar os sistemas e soluções de IA com base no risco que representam (os sistemas e soluções devem ser classificados em quatro níveis: proibido; elevado; limitado; mínimo), a UE pretende que sejam assegurados um conjunto de requisitos rigorosos ajustados ao perfil de risco da solução de IA.
Uma das principais formas pelas quais o EU AI Act pretende impulsionar a confiança é através da promoção da transparência e da responsabilização. Os sistemas de IA estão sujeitos a requisitos de documentação, rastreabilidade, explicabilidade e auditabilidade, permitindo que os utilizadores e as autoridades compreendam como funcionam e como tomam decisões.
Complementarmente, o EU AI Act requer que os sistemas de IA sejam desenvolvidos e utilizados de forma a proteger os direitos fundamentais, como a não discriminação, a proteção de dados e a liberdade de expressão.
Ao estabelecer regras claras e exigências rigorosas, acreditamos que a regulamentação europeia (que se aplica a soluções igualmente desenvolvidas noutras geografias que sejam utilizadas na UE) contribui para dissipar as preocupações do público em relação à IA e a promover a confiança nas suas aplicações, não impactando a inovação e evolução da tecnologia. No entanto, é importante reconhecer que a regulamentação por si só não é suficiente para garantir a confiança na IA, sendo igualmente crítico investir na mitigação do risco associado aos fatores identificados (desinformação e literacia em IA, utilização responsável e no governo das soluções baseadas na tecnologia).