Jedynie dwie na pięć osób w Polsce deklarują zaufanie do sztucznej inteligencji – a to właśnie ono jest warunkiem jej szerokiej akceptacji i regularnego stosowania w codziennym życiu. Kluczowe dla użytkowników okazuje się bezpieczeństwo i wiarygodność systemów, a także przekonanie, że technologia działa w ich interesie. Co ciekawe, ta ostrożność deklarowana w badaniu nie zawsze znajduje odzwierciedlenie w praktyce – wielu respondentów badania z Polski regularnie korzysta z bezpłatnych, ogólnodostępnych narzędzi AI, często powierzając im swoje dane. Jednak bez poczucia bezpieczeństwa nawet najbardziej zaawansowane czy łatwo dostępne rozwiązania nie będą w pełni wykorzystywane. Z badania KPMG wynika, że osoby ufające AI są nie tylko bardziej otwarte na jej obecność w życiu codziennym, ale także chętniej korzystają z jej możliwości. Raport „Sztuczna inteligencja w Polsce. Krajobraz pełen paradoksów” pokazuje, że relacja Polaków z tą technologią to właśnie splot sprzeczności – z jednej strony nieufność wobec instytucji i obawy o prywatność, z drugiej rosnąca gotowość do korzystania z AI w codziennych sytuacjach.

Zaufanie do sztucznej inteligencji w Polsce – kluczowe wnioski

1 Polacy mniej ufni w porównaniu do ogółu respondentów. Tylko 41% Polaków deklaruje zaufanie do sztucznej inteligencji, co jest wynikiem nieco niższym niż średnia światowa (46%).

2Powszechna akceptacja AI w Polsce. Aż 77% badanych Polaków zgadza się w przynajmniej umiarkowanym stopniu na obecność sztucznej inteligencji w realizowanych na co dzień zadaniach

3Sektor publiczny z kredytem zaufania. 45% respondentów z Polski ma niski poziom zaufania do tego, że instytucje państwowe wykorzystują i rozwijają narzędzia AI w najlepszym interesie społecznym.

4Największa wiarygodność po stronie nauki. Instytucje akademickie i jednostki naukowo-badawcze plasują się na czele rankingu zaufania do odpowiedzialnego wykorzystania sztucznej inteligencji zarówno w Polsce, jak i na świecie.

5Priorytet to bezpieczeństwo danych. Prawo do wycofania zgody na przetwarzanie danych osobowych jest dla respondentów z Polski najważniejszym czynnikiem zwiększającym skłonność do zaufania AI.

Skłonność do zaufania AI

Polacy patrzą na sztuczną inteligencję z rosnącym zainteresowaniem, ale nie z bezwarunkowym entuzjazmem. Coraz częściej oczekują od niej nie tylko nowych funkcji i ułatwień, lecz także jasnych zasad odpowiedzialności i przejrzystości działania. Badanie pokazuje, że zaufanie do AI nie jest automatyczne – trzeba je budować poprzez regulacje, standardy i otwartą komunikację. Sposób wdrażania sztucznej inteligencji oraz i narracja społeczna wokół niej mogą mieć dziś równie duże znaczenie jak sama innowacyjność.

Czynniki zwiększające skłonność do zaufania AI – wskazania respondentów z Polski

  • Prawo do wycofania zgody na wykorzystywanie przez AI danych osobowych (89%)
  • Monitorowanie dokładności i niezawodności AI (86%)
  • Przestrzeganie standardów międzynarodowych w zakresie przejrzystości i zarządzania ryzykiem związanym z AI   (86%)
  • Możliwość interwencji człowieka w celu korekty, zmiany lub kwestionowania wyników pracy AI (85%)
  • Jasność w kwestii tego, kto ponosi odpowiedzialność za ryzyka związane z pracą systemów AI (84%)
  • Organizacja szkoleń z zakresu odpowiedzialnego i bezpiecznego użytkowania AI dla pracowników organizacji wykorzystujących tę technologię (84%)
  • Obowiązywanie przepisów prawa regulujących korzystanie z AI (82%)
  • Weryfikacja lub gwarancja systemów AI zapewniona przez stronę trzecią / podmiot zewnętrzny (78%)

AI w rękach różnych instytucji

Zaufanie społeczne do instytucji rozwijających i wykorzystujących sztuczną inteligencję nie jest jednolite – zarówno w Polsce, jak i na świecie zależy ono od rodzaju organizacji. Najwyższy poziom wiarygodności przypisywany jest uniwersytetom oraz krajowym ośrodkom badawczym i zdrowotnym, które są postrzegane jako działające przede wszystkim w interesie publicznym.

W przypadku sektora komercyjnego oceny są bardziej zróżnicowane – duże firmy technologiczne i inne organizacje biznesowe wzbudzają w Polsce mieszane odczucia, mimo że poziom deklarowanego zaufania jest wyższy niż w wielu krajach rozwiniętych.

Szczególnym wyzwaniem pozostaje odbudowa zaufania do instytucji państwowych, zwłaszcza w kontekście rosnącej roli AI w usługach publicznych. Badanie pokazuje, że obywatele nie są w pełni przekonani, iż administracja będzie wykorzystywać tę technologię w ich interesie.

W tym kontekście kluczowe znaczenie może mieć współpraca sektora publicznego z organizacjami cieszącymi się największym uznaniem społecznym – takimi jak uczelnie i instytucje badawcze. Partnerstwa tego rodzaju mogą zwiększać akceptację dla wdrażanych rozwiązań AI i wspierać budowanie bardziej przejrzystych, odpowiedzialnych modeli jej rozwoju.

O badaniu

Badanie „Trust, Attitudes and Use of Artificial Intelligence: A Global Study 2025” zostało przeprowadzone przez zespół naukowców z University of Melbourne we współpracy z KPMG. Jest to jedno z najbardziej kompleksowych badań na świecie dotyczących zaufania społecznego, postaw i wykorzystania sztucznej inteligencji – obejmujące ponad 48 000 respondentów z 47 krajów.

Projekt badawczy powstał w ramach współpracy KPMG z prof. Nicole Gillespie, kierującą Katedrą Zaufania oraz z profesorką zarządzania na University of Melbourne, a także członkinią Oxford University Centre for Corporate Reputation. Od 2020 roku KPMG i prof. Gillespie współtworzą globalne analizy dotyczące relacji społeczeństw z technologiami AI.

W każdym z krajów dane zbierano przy wykorzystaniu reprezentatywnych paneli badawczych. Respondenci zostali zaproszeni do udziału w ankiecie online, a zbieranie danych odbywało się od listopada 2024 do połowy stycznia 2025 roku.

Za projekt badania, jego realizację, analizę danych oraz opracowanie wyników odpowiadał zespół badawczy z University of Melbourne pod kierownictwem prof. Nicole Gillespie i dr. Steve’a Lockeya.

Badanie zostało zrealizowane w ramach partnerstwa badawczego Chair in Trust pomiędzy University of Melbourne i KPMG Australia, finansowanego przez KPMG International, KPMG Australia oraz University of Melbourne.

Sztuczna inteligencja w Polsce

Zachęcamy do zapoznania się z pełną treścią raportu KPMG.
Pobierz raport ⤓

Skontaktuj się z nami

Jak możemy pomóc?

Zobacz także