Zobacz, jak firma KPMG oceniła ryzyko, usprawniła zarządzanie i utorowała drogę dla odpowiedzialnego wykorzystania sztucznej inteligencji w branży usług finansowych.
KLIENT
Duża instytucja
BRANŻA
Usługi finansowe
PROJEKT
Analiza obecnych i najlepszych praktyk w obszarze stosowania rozwiązań AI oraz poprawa zarządzania ryzykiem AI
Wyzwanie klienta
Instytucja finansowa przygotowywała się do rozszerzenia wykorzystania sztucznej inteligencji (AI) w całej swojej działalności. Chociaż niektóre narzędzia AI zostały już opracowane, instytucja uznała, że potrzebuje odpowiednich mechanizmów kontroli i procesów, aby wesprzeć szersze wdrożenie tej technologii.
Organizacja chciała wykorzystać rozwiązania oparte na sztucznej inteligencji w bardziej znaczący sposób, jednak na początku chciała poznać najlepsze praktyki w zakresie zarządzania ryzykiem związanym z AI. W dalszej kolejności – skupić się na zidentyfikowaniu potencjalnych zagrożeń i ustanowieniu odpowiednich zabezpieczeń, aby zapewnić godne zaufania środowisko do korzystania z możliwości AI.
Instytucja zamierzała również porównać swoje inicjatywy w zakresie AI z działaniami innych podmiotów, aby nie odstawać pod tym względem od konkurencji, ale i nie sięgać zbyt zachłannie po rozwiązania AI bez odpowiedniej strategii.
Oczekiwała przygotowania praktycznego planu działania, który uwzględni wprowadzenie optymalnych praktyk w zakresie szerszej integracji organizacji z AI oraz zarządzania ryzykiem z tym związanym.
Podejście KPMG
Aby sprostać tym wyzwaniom, klient zwrócił się o pomoc do KPMG. KPMG wykorzystało swoją metodykę Trusted AI, opartą na 10 filarach, które wyznaczają kierunki odpowiedzialnego stosowania sztucznej inteligencji w całym jej cyklu życia, w tym przejrzystości, integralności danych i prywatności. Struktura ta zapewniła uporządkowane podejście do zrozumienia ryzyka związanego ze sztuczną inteligencją. Proces oceny obejmował kilka kluczowych etapów:
1
Zespół przeprowadził rozmowy z kluczowymi interesariuszami w celu oceny aktualnych zastosowań AI i sposobu ich zarządzania. Pomogło to zidentyfikować konkretne przykłady wykorzystania sztucznej inteligencji, które wymagały dokładniejszej analizy w oparciu o ich profile ryzyka.
2
Podczas pracy w terenie zebrano dowody poprzez wywiady i dokumentację związaną z używanymi modelami AI. Próbka modeli AI, w tym model oceny wniosków kredytowych, została przetestowana pod kątem kontroli w matrycy ryzyka i kontroli w celu oceny ich skuteczności. Pomogło to zidentyfikować kontrole, które należało ustanowić przed rozszerzeniem stosowania AI.
3
Zespół przedstawił swoje zweryfikowane ustalenia i zalecenia dotyczące postępowania z ryzykiem, które obejmowały szczegółowy plan przyszłych działań w zakresie zarządzania AI i rozwoju kontroli.
Jednocześnie KPMG przeprowadziło szczegółową ankietę wśród 50 podobnych organizacji, aby dać klientowi wgląd w to, jak podobne instytucje rozwijają możliwości AI i radzą sobie z porównywalnymi wyzwaniami. Proces ten dostarczył cennych informacji do planu działania, który pomógł klientowi rozwiązać problemy, które mogłyby utrudnić mu osiągnięcie celów związanych z AI.
Efekt współpracy
Klient otrzymał ocenę swoich praktyk w zakresie AI, skupiającą się na integracji AI i zarządzaniu ryzykiem. Uzyskał wgląd w luki w swoich procesach i niezbędne zabezpieczenia, aby je wyeliminować. Ponadto klient uzyskał jasność co do swojej pozycji w stosunku do innych podmiotów, otrzymując punkt odniesienia dla tego, jak inne organizacje radzą sobie z możliwościami i wyzwaniami związanymi ze sztuczną inteligencją.
Plan działania zawierał szczegółowe zalecenia dotyczące rozwoju możliwości sztucznej inteligencji i wdrożenia niezbędnych środków kontroli w ciągu najbliższych 12–18 miesięcy. Wyposażył klienta w narzędzia umożliwiające odpowiedzialne wykorzystanie potencjału sztucznej inteligencji i zarządzanie związanym z nią ryzykiem z większą pewnością.