A inteligência artificial (IA) avançou rapidamente de tendência tecnológica para elemento essencial nos processos corporativos. No Brasil, 86% dos respondentes da pesquisa “Confiança, Atitudes e Uso de Inteligência Artificial: um estudo global 2025” afirmam que suas empresas já utilizam IA.

Conduzido pela KPMG em parceria com a Universidade de Melbourne, na Austrália, o estudo mostra um cenário no qual a IA está profundamente enraizada na prática profissional, embora seu uso ainda esteja cercado por incertezas e dilemas éticos que merecem atenção estratégica dos líderes corporativos.

Entre outros pontos, a pesquisa ressalta que, apesar da crescente presença da IA no ambiente de trabalho, apenas 55% dos brasileiros entrevistados se dizem dispostos a confiar nas decisões tomadas por IA — um percentual significativo, que revela uma ambivalência relevante quando contrastado com os 86% que aprovam ou aceitam seu uso.

Esse hiato entre aceitação prática e confiança simbólica reforça um ponto crucial: a IA está sendo usada porque é necessária; porém, a tecnologia está longe de ser plenamente compreendida ou de ser percebida como “certeira” ou “infalível” por quem a utiliza.

Impactos positivos e negativos

Os dados da pesquisa são contundentes ao demonstrar que a IA já está gerando valor. No ambiente corporativo, 71% dos entrevistados afirmam que a tecnologia aumentou a eficiência, melhorou a qualidade do trabalho e impulsionou a inovação.

Mas, junto aos ganhos, surgem os efeitos colaterais. Um percentual de 27% relatou aumento da carga de trabalho, do estresse e da pressão, o que sugere que a automação de tarefas não está necessariamente promovendo um ambiente mais saudável. A IA também expandiu os riscos relacionados à conformidade e privacidade, afetando diretamente as áreas de governança e compliance das organizações.

Outro dado relevante é sobre dependência tecnológica: 47% dos entrevistados declararam que não conseguiriam realizar suas tarefas sem o apoio da IA, enquanto 46% têm medo de se tornarem obsoletos caso não adotem a tecnologia rapidamente. Esse tipo de relação sugere que a IA possa estar promovendo uma lógica de trabalho acelerada, automatizada e, paradoxalmente, insegura.

Erros, uso indevido e dilemas éticos

A pesquisa também revela comportamentos que colocam em xeque a maturidade do uso da IA nas empresas. Um percentual de 49% dos entrevistados admitiu ter cometido erros em suas tarefas por confiar em resultados fornecidos por IA e 44% relataram ter usado a tecnologia inapropriadamente. 51% disseram já ter apresentado conteúdos gerados por IA como se fossem de sua própria autoria.

Esses dados expõem vulnerabilidades operacionais e levantam questões éticas. Por exemplo: a quem pertence o conteúdo gerado por IA? Quais são os limites da autoria e da responsabilidade em um ambiente automatizado? E, sobretudo, será que os líderes empresariais estão realmente preparados para orientar suas equipes em um uso ético e seguro da inteligência artificial?

É positivo que 67% das empresas ofereçam treinamentos sobre uso responsável da IA e que 68% afirmem ter políticas claras para orientar os colaboradores. Porém, esses mesmos dados revelam que, mesmo com um uso generalizado da tecnologia, mais de 30% das organizações ainda operam no escuro quando o tema é governança da IA.

Confiança pública e regulação

Extrapolando o ambiente corporativo, a pesquisa também se debruça sobre a percepção da sociedade em relação à IA. As respostas indicam que quase 80% dos brasileiros demonstram preocupação com os riscos associados à tecnologia, sendo que 25% acreditam que esses riscos superam os benefícios.

O principal temor desses respondentes é com a desinformação – tanto que 67% dos entrevistados não confiam em conteúdo gerado por IA e 70% receiam que as eleições possam ser manipuladas por bots.

Esses números ajudam a entender por que 84% pedem medidas legais para combater a desinformação gerada por IA — um pleito justo, que deveria efetivamente instigar governos e instituições reguladoras a atuarem. Inclusive, 66% dos brasileiros consideram que a regulamentação da IA é urgente.

Também chama atenção que mais de 80% da população não tenha qualquer conhecimento sobre leis ou políticas relacionadas à IA no Brasil, o que reforça a importância de campanhas de educação digital, voltadas não apenas para especialistas, mas para a sociedade como um todo.

Mas, afinal: o que o futuro nos reserva? Ainda não é possível dar uma resposta definitiva a essa questão. O que se pode afirmar é que o avanço da IA é irreversível. É preciso ir além do fascínio pela inovação e assumir a responsabilidade de garantir que o uso da tecnologia ocorra de maneira ética, transparente e inclusiva.

Para os líderes empresariais, isso significa:

  1. Estabelecer políticas claras de governança da IA.
  2. Promover treinamentos formais e recorrentes sobre uso responsável da tecnologia.
  3. Investir em processos de auditoria e validação dos outputs gerados por IA.
  4. Estabelecer limites e protocolos para a autoria de conteúdo.
  5. Colaborar com órgãos reguladores e associações para construir marcos legais robustos.

A IA pode ser uma aliada para as empresas e a sociedade. Mas os resultados positivos dependem de atenção, ética, vigilância e, sobretudo, liderança consciente. Em vez de simplesmente “usar porque é útil”, devemos mudar nossa abordagem para “usar com propósito e responsabilidade”.

Como todo salto tecnológico, a IA exige que as decisões de hoje sejam tomadas com foco no amanhã. A tecnologia que deve sempre servir aos propósitos da humanidade, de modo a proporcionar benefícios a todos e encurtando o caminho para um futuro mais justo e sustentável. 


Mais insights