Jedynie dwie na pięć osób w Polsce deklarują zaufanie do sztucznej inteligencji – a to właśnie ono jest warunkiem jej szerokiej akceptacji i regularnego stosowania w codziennym życiu. Kluczowe dla użytkowników okazuje się bezpieczeństwo i wiarygodność systemów, a także przekonanie, że technologia działa w ich interesie. Co ciekawe, ta ostrożność deklarowana w badaniu nie zawsze znajduje odzwierciedlenie w praktyce – wielu respondentów badania z Polski regularnie korzysta z bezpłatnych, ogólnodostępnych narzędzi AI, często powierzając im swoje dane. Jednak bez poczucia bezpieczeństwa nawet najbardziej zaawansowane czy łatwo dostępne rozwiązania nie będą w pełni wykorzystywane. Z badania KPMG wynika, że osoby ufające AI są nie tylko bardziej otwarte na jej obecność w życiu codziennym, ale także chętniej korzystają z jej możliwości. Raport „Sztuczna inteligencja w Polsce. Krajobraz pełen paradoksów” pokazuje, że relacja Polaków z tą technologią to właśnie splot sprzeczności – z jednej strony nieufność wobec instytucji i obawy o prywatność, z drugiej rosnąca gotowość do korzystania z AI w codziennych sytuacjach.
Zaufanie do sztucznej inteligencji w Polsce – kluczowe wnioski
1 Polacy mniej ufni w porównaniu do ogółu respondentów. Tylko 41% Polaków deklaruje zaufanie do sztucznej inteligencji, co jest wynikiem nieco niższym niż średnia światowa (46%).
2Powszechna akceptacja AI w Polsce. Aż 77% badanych Polaków zgadza się w przynajmniej umiarkowanym stopniu na obecność sztucznej inteligencji w realizowanych na co dzień zadaniach
3Sektor publiczny z kredytem zaufania. 45% respondentów z Polski ma niski poziom zaufania do tego, że instytucje państwowe wykorzystują i rozwijają narzędzia AI w najlepszym interesie społecznym.
4Największa wiarygodność po stronie nauki. Instytucje akademickie i jednostki naukowo-badawcze plasują się na czele rankingu zaufania do odpowiedzialnego wykorzystania sztucznej inteligencji zarówno w Polsce, jak i na świecie.
5Priorytet to bezpieczeństwo danych. Prawo do wycofania zgody na przetwarzanie danych osobowych jest dla respondentów z Polski najważniejszym czynnikiem zwiększającym skłonność do zaufania AI.
Skłonność do zaufania AI
Polacy patrzą na sztuczną inteligencję z rosnącym zainteresowaniem, ale nie z bezwarunkowym entuzjazmem. Coraz częściej oczekują od niej nie tylko nowych funkcji i ułatwień, lecz także jasnych zasad odpowiedzialności i przejrzystości działania. Badanie pokazuje, że zaufanie do AI nie jest automatyczne – trzeba je budować poprzez regulacje, standardy i otwartą komunikację. Sposób wdrażania sztucznej inteligencji oraz i narracja społeczna wokół niej mogą mieć dziś równie duże znaczenie jak sama innowacyjność.
Czynniki zwiększające skłonność do zaufania AI – wskazania respondentów z Polski
- Prawo do wycofania zgody na wykorzystywanie przez AI danych osobowych (89%)
- Monitorowanie dokładności i niezawodności AI (86%)
- Przestrzeganie standardów międzynarodowych w zakresie przejrzystości i zarządzania ryzykiem związanym z AI (86%)
- Możliwość interwencji człowieka w celu korekty, zmiany lub kwestionowania wyników pracy AI (85%)
- Jasność w kwestii tego, kto ponosi odpowiedzialność za ryzyka związane z pracą systemów AI (84%)
- Organizacja szkoleń z zakresu odpowiedzialnego i bezpiecznego użytkowania AI dla pracowników organizacji wykorzystujących tę technologię (84%)
- Obowiązywanie przepisów prawa regulujących korzystanie z AI (82%)
- Weryfikacja lub gwarancja systemów AI zapewniona przez stronę trzecią / podmiot zewnętrzny (78%)
Badanie wyraźnie pokazuje, że dla polskich użytkowników sztucznej inteligencji najważniejszym fundamentem zaufania jest ochrona prywatności. To nie tylko kwestia prawa do wycofania zgody na przetwarzanie danych, ale szersze oczekiwanie, że technologia będzie projektowana w duchu odpowiedzialności. Widać tu przesunięcie akcentów – od zachwytu nad możliwościami AI w stronę dojrzałej refleksji nad ryzykiem i warunkami jej stosowania. Respondenci wskazują również na potrzebę monitorowania jakości i zgodności systemów ze standardami międzynarodowymi, co świadczy o rosnącej świadomości, że zaufanie do AI nie jest jednorazowym aktem, lecz procesem wymagającym ciągłej weryfikacji. Co szczególnie interesujące, bardzo wysoko oceniono znaczenie szkoleń i edukacji użytkowników. To sygnał, że adaptacja AI nie sprowadza się wyłącznie do wdrożeń technologicznych – równie ważne jest przygotowanie ludzi do rozumienia mechanizmów działania, ograniczeń i potencjalnych konsekwencji tych narzędzi. Można więc powiedzieć, że w Polsce kształtuje się model adopcji AI, w którym innowacyjność idzie w parze z transparentnością i rozwojem kompetencji cyfrowych. Jeśli regulatorzy i firmy właściwie odczytają ten trend, tempo i skala wykorzystania sztucznej inteligencji w naszym kraju mogą przyspieszyć, a jednocześnie opierać się na solidnych fundamentach społecznego zaufania.
AI w rękach różnych instytucji
Zaufanie społeczne do instytucji rozwijających i wykorzystujących sztuczną inteligencję nie jest jednolite – zarówno w Polsce, jak i na świecie zależy ono od rodzaju organizacji. Najwyższy poziom wiarygodności przypisywany jest uniwersytetom oraz krajowym ośrodkom badawczym i zdrowotnym, które są postrzegane jako działające przede wszystkim w interesie publicznym.
W przypadku sektora komercyjnego oceny są bardziej zróżnicowane – duże firmy technologiczne i inne organizacje biznesowe wzbudzają w Polsce mieszane odczucia, mimo że poziom deklarowanego zaufania jest wyższy niż w wielu krajach rozwiniętych.
Szczególnym wyzwaniem pozostaje odbudowa zaufania do instytucji państwowych, zwłaszcza w kontekście rosnącej roli AI w usługach publicznych. Badanie pokazuje, że obywatele nie są w pełni przekonani, iż administracja będzie wykorzystywać tę technologię w ich interesie.
W tym kontekście kluczowe znaczenie może mieć współpraca sektora publicznego z organizacjami cieszącymi się największym uznaniem społecznym – takimi jak uczelnie i instytucje badawcze. Partnerstwa tego rodzaju mogą zwiększać akceptację dla wdrażanych rozwiązań AI i wspierać budowanie bardziej przejrzystych, odpowiedzialnych modeli jej rozwoju.
O badaniu
Badanie „Trust, Attitudes and Use of Artificial Intelligence: A Global Study 2025” zostało przeprowadzone przez zespół naukowców z University of Melbourne we współpracy z KPMG. Jest to jedno z najbardziej kompleksowych badań na świecie dotyczących zaufania społecznego, postaw i wykorzystania sztucznej inteligencji – obejmujące ponad 48 000 respondentów z 47 krajów.
Projekt badawczy powstał w ramach współpracy KPMG z prof. Nicole Gillespie, kierującą Katedrą Zaufania oraz z profesorką zarządzania na University of Melbourne, a także członkinią Oxford University Centre for Corporate Reputation. Od 2020 roku KPMG i prof. Gillespie współtworzą globalne analizy dotyczące relacji społeczeństw z technologiami AI.
W każdym z krajów dane zbierano przy wykorzystaniu reprezentatywnych paneli badawczych. Respondenci zostali zaproszeni do udziału w ankiecie online, a zbieranie danych odbywało się od listopada 2024 do połowy stycznia 2025 roku.
Za projekt badania, jego realizację, analizę danych oraz opracowanie wyników odpowiadał zespół badawczy z University of Melbourne pod kierownictwem prof. Nicole Gillespie i dr. Steve’a Lockeya.
Badanie zostało zrealizowane w ramach partnerstwa badawczego Chair in Trust pomiędzy University of Melbourne i KPMG Australia, finansowanego przez KPMG International, KPMG Australia oraz University of Melbourne.
Skontaktuj się z nami
Jak możemy pomóc?
Wyślij zapytanie ofertowe
Dowiedz się więcej, o tym w jaki sposób wiedza i technologia KPMG mogą pomóc Tobie i Twojej firmie.
Kliknij, aby rozpocząć