Ob Deepfake-Videos mit irreführenden Aussagen von Kandidaten oder bewusst lancierte Falschinformationen, die rasend schnell viral gehen: Im US-Präsidentschaftswahlkampf zeigt sich, wie wirkungsvoll generative künstliche Intelligenz (KI) bereits ist. KI ermöglicht es, Inhalte zu manipulieren. Das kann grundlegende Zweifel in der Bevölkerung wachsen lassen, der Wahlprozess droht unterminiert zu werden. Das macht einmal mehr deutlich: der transparente, sichere und ethisch vertretbare Einsatz von KI ist essenziell, um Vertrauen gewährleisten und letztlich die großen Chancen der neuen Technologie nutzen zu können. Unsere Expertinnen und Experten zeigen in der Studie „Fake World vs. Trusted AI“ auf, wie das KPMG Trusted AI Framework beim KI-Einsatz in der Praxis unterstützt.
Risiken beim KI-Einsatz in Unternehmen
Um den Status quo hinsichtlich der KI-Wahrnehmung in der Bevölkerung zu eruieren, haben wir 1.000 Personen zu relevanten Themenkomplexen befragt. Fünf Kernerkenntnisse im kompakten Überblick:
- Mehr als die Hälfte der befragten Personen nutzt KI bereits aktiv im beruflichen oder privaten Kontext. Fast neun von zehn Teilnehmenden wollen ihre Nutzung künftig noch weiter ausbauen sowie ihr Verständnis für spezielle KI-Lösungen vertiefen.
- 96 Prozent der Befragten sind sich der potenziellen KI-Risiken bewusst. Die ihrer Ansicht nach größten Risiken: Sicherheitsrisiken (54 Prozent), Fehl- und Desinformationen (49 Prozent), Verlust von Arbeitsplätzen (49 Prozent).
- Unternehmen sollten den Befragten zufolge umfassende Maßnahmen ergreifen, um die KI-Risiken zu managen. Schulungen der Mitarbeitenden und Sensibilisierungskampagnen finden sie besonders wichtig (42 Prozent). Fast ebenso relevant: das Einführen von Nutzungsrichtlinien und Einsatzbeschränkungen (41 Prozent), kontinuierliche Überwachung und Bewertung durch Monitoring-Systeme und Feedbackschleifen (40 Prozent), der Aufbau von Transparenz und Erklärbarkeit (39 Prozent) sowie die Implementierung von Datenschutzrichtlinien und Sicherheitsmaßnahmen (38 Prozent).
- Die Befragten erwarten von Unternehmen zudem umfassende Governance-Strukturen. Die Top 3: die Einführung eines KI Datenschutz- und Sicherheitsbeauftragter (51 Prozent), KI-Schulungs- und Weiterbildungsprogramme (47 Prozent) und die Etablierung eines KI-Risikomanagement-Teams (40 Prozent).
- Nahezu alle Befragten (96 Prozent) erkennen gesellschaftliche Herausforderungen durch den Einsatz generativer KI. Die beiden größten betreffen Sicherheitsbedenken in Hinblick auf Cyberangriffe und Missbrauch (55 Prozent) sowie Herausforderungen in Bezug auf Datenschutz und Überwachung (54 Prozent).
Klar ist demnach: KI ist im Alltag der der Menschen angekommen und es zeichnet sich weiteres Wachstum ab. Gleichzeitig besteht angesichts der weitreichenden Folgen, die KI für Wirtschaft und Gesellschaft haben kann, eine Erwartungshaltung an Unternehmen und weitere Organisationen, die KI einsetzen: Das Risikomanagement ist nachzuschärfen, um das volle Potenzial des technologischen Fortschritts ausschöpfen zu können.
KPMG Trusted AI Framework: Risiken minimieren, Vertrauen stärken
Das KPMG Trusted AI Framework bietet sieben Säulen für den sicheren, vertrauenswürdigen, transparenten und ethisch vertretbaren Einsatz von KI. Die Säulen im kompakten Überblick:
KI-Entscheidungen sollten nachvollziehbar sein. Explainable AI-Methoden (XAI) stärken das Vertrauen und fördern eine informierte Nutzung. Ethik-Richtlinien und -Boards sind ebenfalls wichtig.
Bias-Detection-Algorithmen und regelmäßige Audits minimieren Vorurteile in KI-Systemen. Diverse Datensätze sorgen für gerechte Entscheidungen.
Strenge Datenschutzregeln wie Anonymisierung und Verschlüsselung schützen sensible Daten. Standards wie der „AI Cloud Service Compliance Criteria Catalogue (AIC4)” helfen bei der Bewertung der Sicherheit von KI-Diensten.
Validierung und Bereinigung der Daten sind entscheidend. Blockchain-Technologie schützt die Datenintegrität und kontinuierliches Monitoring erkennt Anomalien frühzeitig.
Dokumentation und Audits schaffen Transparenz. Unternehmen sollten ethische Standards und Haftungsmodelle für KI-Systeme festlegen.
KI-Systeme sollten stabil und widerstandsfähig gegen Cyberangriffe sein. Redundanzsysteme und Stresstests sind unerlässlich.
Effiziente Algorithmen, erneuerbare Energien und Modelkompression reduzieren den Energieverbrauch. Umschulungsprogramme helfen Mitarbeitenden, sich an neue Rollen anzupassen.
Generative KI bietet das Potenzial, jeden Prozess und Arbeitsplatz zu unterstützen. Eine Grundvoraussetzung für die Nutzung ist jedoch, dass KI sicher eingesetzt wird. Insbesondere sind neue Security- und Governance-Herausforderungen im Einklang mit dem EU AI Act zu bewältigen. Dabei unterstützen wir unsere Kunden als verlässlicher Partner mit dem KPMG Trusted AI-Framework.
KI-Sicherheit in der Praxis: Fallbeispiele
Um die Integrität und Sicherheit Ihrer KI-Systeme zu gewährleisten, sind innovative Maßnahmen erforderlich. Zwei Projekte im Bereich Financial Services zeigen, wie KI-spezifische Angriffe abgewehrt werden können:
- Prompt Injection Detection Firewall: Diese Firewall schützt KI-gestützte Anwendungen, insbesondere Large Language Models (LLMs), vor manipulierten Eingaben. Sie überwacht kontinuierlich alle Nutzereingaben und erkennt sowie blockiert potenziell bösartige Anweisungen. Ein Beispiel aus der Sachversicherung zeigt, wie die Firewall unberechtigte Auszahlungen verhindert und die Integrität der Entscheidungen sichert.
- Vollautomatische Sicherheitstests von KI-Systemen: Ein Tool führt regelmäßige, automatische Tests durch, um Schwachstellen in KI-Systemen zu identifizieren und zu beheben. Es wird täglich mit aktuellen Cyber-Threat-Intelligence-Informationen aktualisiert und integriert weitere Erkenntnisse. So bleiben die Systeme stets auf dem neuesten Stand der Sicherheitsforschung und sind für neue Angriffsmethoden gewappnet.
Ihre Ansprechperson
Mein Profil
Speichern Sie Inhalte, verwalten Sie Ihre Bibliothek und teilen Sie die Inhalte mit Ihrem Netzwerk.
Benedikt Höck
Partner, Head of AI, Strategie- und Managementberatung
KPMG AG Wirtschaftsprüfungsgesellschaft
Ashish Madan
CTO, Bereichsvorstand Technology Services
KPMG AG Wirtschaftsprüfungsgesellschaft
So kontaktieren Sie uns
- KPMG-Standorte finden kpmg.findOfficeLocations
- kpmg.emailUs
- Social Media @ KPMG kpmg.socialMedia