• 1000

Zobacz, jak firma KPMG oceniła ryzyko, usprawniła zarządzanie i utorowała drogę dla odpowiedzialnego wykorzystania sztucznej inteligencji w branży usług finansowych.

KLIENT

Duża instytucja

BRANŻA

Usługi finansowe

PROJEKT

Analiza obecnych i najlepszych praktyk w obszarze stosowania rozwiązań AI oraz poprawa zarządzania ryzykiem AI

Wyzwanie klienta

Instytucja finansowa przygotowywała się do rozszerzenia wykorzystania sztucznej inteligencji (AI) w całej swojej działalności. Chociaż niektóre narzędzia AI zostały już opracowane, instytucja uznała, że potrzebuje odpowiednich mechanizmów kontroli i procesów, aby wesprzeć szersze wdrożenie tej technologii. 

Organizacja chciała wykorzystać rozwiązania oparte na sztucznej inteligencji w bardziej znaczący sposób, jednak na początku chciała poznać najlepsze praktyki w zakresie zarządzania ryzykiem związanym z AI. W dalszej kolejności – skupić się na zidentyfikowaniu potencjalnych zagrożeń i ustanowieniu odpowiednich zabezpieczeń, aby zapewnić godne zaufania środowisko do korzystania z możliwości AI. 

Instytucja zamierzała również porównać swoje inicjatywy w zakresie AI z działaniami innych podmiotów, aby nie odstawać pod tym względem od konkurencji, ale i nie sięgać zbyt zachłannie po rozwiązania AI bez odpowiedniej strategii. 

Oczekiwała przygotowania praktycznego planu działania, który uwzględni wprowadzenie optymalnych praktyk w zakresie szerszej integracji organizacji z AI oraz zarządzania ryzykiem z tym związanym.

Podejście KPMG

Aby sprostać tym wyzwaniom, klient zwrócił się o pomoc do KPMG. KPMG wykorzystało swoją metodykę Trusted AI, opartą na 10 filarach, które wyznaczają kierunki odpowiedzialnego stosowania sztucznej inteligencji w całym jej cyklu życia, w tym przejrzystości, integralności danych i prywatności. Struktura ta zapewniła uporządkowane podejście do zrozumienia ryzyka związanego ze sztuczną inteligencją. Proces oceny obejmował kilka kluczowych etapów: 

1

Zespół przeprowadził rozmowy z kluczowymi interesariuszami w celu oceny aktualnych zastosowań AI i sposobu ich zarządzania. Pomogło to zidentyfikować konkretne przykłady wykorzystania sztucznej inteligencji, które wymagały dokładniejszej analizy w oparciu o ich profile ryzyka.

2

Podczas pracy w terenie zebrano dowody poprzez wywiady i dokumentację związaną z używanymi modelami AI. Próbka modeli AI, w tym model oceny wniosków kredytowych, została przetestowana pod kątem kontroli w matrycy ryzyka i kontroli w celu oceny ich skuteczności. Pomogło to zidentyfikować kontrole, które należało ustanowić przed rozszerzeniem stosowania AI.

3

Zespół przedstawił swoje zweryfikowane ustalenia i zalecenia dotyczące postępowania z ryzykiem, które obejmowały szczegółowy plan przyszłych działań w zakresie zarządzania AI i rozwoju kontroli.

Jednocześnie KPMG przeprowadziło szczegółową ankietę wśród 50 podobnych organizacji, aby dać klientowi wgląd w to, jak podobne instytucje rozwijają możliwości AI i radzą sobie z porównywalnymi wyzwaniami. Proces ten dostarczył cennych informacji do planu działania, który pomógł klientowi rozwiązać problemy, które mogłyby utrudnić mu osiągnięcie celów związanych z AI.

Efekt współpracy

Klient otrzymał ocenę swoich praktyk w zakresie AI, skupiającą się na integracji AI i zarządzaniu ryzykiem. Uzyskał wgląd w luki w swoich procesach i niezbędne zabezpieczenia, aby je wyeliminować. Ponadto klient uzyskał jasność co do swojej pozycji w stosunku do innych podmiotów, otrzymując punkt odniesienia dla tego, jak inne organizacje radzą sobie z możliwościami i wyzwaniami związanymi ze sztuczną inteligencją. 

Plan działania zawierał szczegółowe zalecenia dotyczące rozwoju możliwości sztucznej inteligencji i wdrożenia niezbędnych środków kontroli w ciągu najbliższych 12–18 miesięcy. Wyposażył klienta w narzędzia umożliwiające odpowiedzialne wykorzystanie potencjału sztucznej inteligencji i zarządzanie związanym z nią ryzykiem z większą pewnością.

Zobacz także