62% Polaków obawia się o bezpieczeństwo swoich danych osobowych bardziej niż przed wprowadzeniem RODO

Rozwój sztucznej inteligencji nasila pesymistyczne nastroje społeczne dotyczące bezpieczeństwa ich danych osobowych.

Rozwój AI nasila pesymistyczne nastroje społeczne dotyczące bezpieczeńa ich danych.

  • 1000

Ochrona prywatności danych jest kluczowa w cyfrowym świecie. Po ponad pięciu latach od wprowadzenia ogólnego rozporządzenia o ochronie danych (RODO), Unia Europejska pozostaje liderem regulacji w tym obszarze. 58% mieszkańców Polski biorących udział w badaniu KPMG zgadza się ze stwierdzeniem, że po wprowadzeniu RODO ma większą kontrolę nad swoimi danymi osobowymi. Z kolei 62% badanych Polaków obawia się o bezpieczeństwo swoich danych osobowych bardziej niż pięć lat temu. Rozwój sztucznej inteligencji na nowo definiuje obszar prywatności danych osobowych i nasila pesymistyczne nastroje społeczne dotyczące ich bezpieczeństwa. Z raportu KPMG pt. „European Privacy Market Research 2023” wynika, że niepokój wywołują algorytmy uczące się preferencji osób przeglądających treści w serwisach społecznościowych czy treści typu deepfake.

W Polsce wzrasta świadomość odpowiedzialności za ochronę danych osobowych. Blisko 6 na 10 Polaków biorących udział w badaniu KPMG uważa, że po wprowadzeniu RODO mają większą kontrolę nad swoimi danymi osobowymi. Równocześnie jednak Polacy wyrażają niepokój związany z innowacyjnymi rozwiązaniami technologicznymi, w tym genAI, które w ich opinii mogą zagrażać bezpieczeństwu danych osobowych w sieci – wskazuje na to 59% respondentów. Dodatkowo ponad połowa badanych Polaków pesymistycznie ocenia przyszłość prywatności danych osobowych. 62% polskich respondentów badania przyznaje, że obecnie obawia się o bezpieczeństwo swoich danych osobowych bardziej niż pięć lat temu. Obawy te są nieco większe niż w pozostałych europejskich krajach (59%). Znacząco większą różnicę widać w przypadku opinii na temat poziomu dbałości o prywatność i kontroli nad danymi osobowymi. 60% respondentów z Polski uważa, że ochrona prywatności ich danych w kraju nie jest nadmierna, podczas gdy przeciętnie w Europie takie zdanie wyraża 48% społeczeństwa.

Niepokój wywołują między innymi algorytmy uczące się preferencji osób przeglądających treści w serwisach społecznościowych. Takie mechanizmy budzą obawy u 59% ankietowanych z Polski i 66% wszystkich badanych z Europy. Dodatkowo, treści typu deepfake zostały uznane za niepokojące przez 76% badanych Polaków oraz przez 80% pozostałych Europejczyków. Ponadto, 71% respondentów badania KPMG czuje dyskomfort związany z podsłuchiwaniem przez asystentów głosowych.

Zaufanie do administratorów danych osobowych

Transformacja cyfrowa dynamicznie przekształca sposoby interakcji między ludźmi i organizacjami. Powoduje to konieczność ciągłego zaangażowania w budowanie zaufania społecznego do instytucji, które zarządzają danymi osobowymi. W opinii respondentów z UE właściwe przetwarzanie danych osobowych powinno być głównie zadaniem banków (23%), instytucji państwowych (19%) oraz policji i sądów (19%). Tymczasem instytucje państwowe nie zajmują czołowych miejsc wśród sektorów cieszących się obecnie najwyższym poziomem zaufania społecznego pod względem bezpieczeństwa danych osobowych. Jedynie 13% respondentów wykazuje, że obdarza je największym zaufaniem w tym zakresie. Europejczycy wykazują największe zaufanie do banków oraz policji i sądownictwa (po 24% wskazań). Dostawcy usług opieki zdrowotnej zostali wymienieni przez 15% respondentów jako godni zaufania, podczas gdy sprzedawcy detaliczni (2%) i media społecznościowe (3%) zajmują najniższe pozycje w rankingu.

Rozwój AI zagrożeniem dla bezpieczeństwa danych osobowych

Rozwój sztucznej inteligencji na nowo definiuje obszar prywatności danych osobowych i nasila pesymistyczne nastroje społeczne dotyczące ich bezpieczeństwa. Niewiele ponad połowa uczestników badania KPMG twierdzi, że zachowuje ostrożność przy wprowadzaniu danych do chatbotów, takich jak ChatGPT, z obawy, że ich dane mogą być przechowywane i wykorzystywane do nieznanych celów. Na redefinicję prywatności przez sztuczną inteligencję wskazuje również fakt, że aż 80% respondentów obawia się dyskryminacji i nadużywania danych osobowych przez AI. Te wyniki wskazują na nowe wyzwanie związane z ochroną prywatności w erze genAI oraz potrzebę dalszej refleksji nad metodami minimalizowania ryzyka nadużyć.