A Inteligência Artificial (IA) promete aumento da eficiência, inovação e melhorias substanciais em vários setores. Mas o uso dessa tecnologia também traz desafios, especialmente no que se refere à privacidade e à construção de confiança entre as organizações e seus stakeholders.

Não faltam exemplos de como a IA pode ser aplicada para melhorar previsões, aprimorar produtos e serviços, reduzir custos e otimizar operações em áreas diversas.

No entanto, como acontece com qualquer tecnologia emergente, existem riscos. A utilização generalizada e não regulamentada desta tecnologia levanta preocupações sobre o seu impacto nos direitos humanos e na privacidade pessoal, então, para colher os benefícios dessa tecnologia inovadora, é crucial construir uma relação de confiança com o mercado e com os diversos stakeholders, dirimindo preocupações a respeito de como os dados serão utilizados.

Estes e outros insights são apresentados no estudo Privacidade em um Novo Mundo de IA, produzido pela KPMG. A pesquisa revelou que, embora 85% das pessoas acreditem nos benefícios da IA, 61% ainda têm receio de confiar plenamente nesses sistemas. Os principais temores incluem decisões algorítmicas e a impressão de que os benefícios da IA não superam os riscos envolvidos.

A pesquisa evidenciou que a questão da privacidade é central nessas preocupações. A IA, especialmente a IA generativa (GenAI), que é impulsionada por algoritmos baseados em modelos de aprendizado de linguagem em grande escala (LLMs), apresenta desafios consideráveis de privacidade.

Esses desafios incluem design falho, vieses algorítmicos, vulnerabilidades de segurança e, especialmente, a possibilidade de discriminação. Além disso, a natureza complexa e imprevisível dos algoritmos de IA levanta preocupações sobre a transparência e a proteção de dados pessoais.

O AI Act baseia-se em princípios de privacidade, transparência e equidade, e exige a certificação de padrões de IA. Outros países também estão adotando abordagens regulatórias. Nos Estados Unidos, por exemplo, alguns estados estão promulgando regulamentações para garantir maior transparência no uso de algoritmos.

O objetivo é consolidar garantias de que os sistemas de IA respeitem os direitos humanos e proporcionem equidade e explicabilidade. Ou seja: é fundamental explicar o funcionamento e as decisões de um sistema de IA de forma clara e compreensível para os seres humanos.

O Brasil tem a Lei Geral de Proteção de Dados (LGPD), promulgada em 2018 com o objetivo de proteger os direitos fundamentais de liberdade e de privacidade. A lei aborda o tratamento de dados, estabelecendo uma estrutura legal de direitos dos titulares de dados pessoais.

Integrar a privacidade desde a concepção (Privacy by Design) é uma estratégia eficaz para abordar essas preocupações de privacidade. Isso envolve avaliar os riscos de privacidade em todas as fases do ciclo de vida da IA, do desenvolvimento à implementação, garantindo conformidade com as regulamentações existentes.

Ao seguir uma abordagem estruturada que inclui compreensão do ambiente regulatório, avaliação de riscos, auditorias, transparência e incorporação da privacidade desde o início, as organizações podem construir sistemas de IA confiáveis e responsáveis.

Em resumo, o uso responsável de Inteligência Artificial (IA) é um desafio complexo nos aspectos de negócios, regulamentares e técnicos. É fundamental ter mecanismos que assegurem a privacidade de dados e, desse modo, construir confiança, com base em ética, boa governança e segurança cibernética.

Privacidade em um Novo Mundo de IA

Acesse o estudo e leia o conteúdo na íntegra.


Saiba mais

 

Fale com a KPMG

conecte-se conosco

Meu perfil

Conteúdo exclusivo e personalizado para você