• 1000

Künstliche Intelligenz ist ein sehr leistungsfähiges Werkzeug beim Lösen komplexer Aufgaben und wird bereits für immer mehr Prozesse eingesetzt. Viele Unternehmen stehen dennoch erst am Anfang bei der Nutzung der KI-Möglichkeiten. Ein Grund dafür ist eine hohe Unsicherheit im Umgang mit selbstlernenden Systemen, ein anderer das mangelnde Vertrauen in die Ergebnisse.

Immer wieder gibt es Meldungen von diskriminierenden Entscheidungen, die über Algorithmen getroffen wurden, wie beispielsweise beim Kreditkartenangebot eines großen Technologiekonzerns. Bei identischen Voraussetzungen bekamen Frauen einen geringeren Kreditrahmen eingeräumt als Männer  - ein Algorithmus hatte das so bestimmt.

In unserem Whitepaper weiterlesen

Noch kein Vertrauen in KI

Auch der CEO-Outlook von KPMG hat gezeigt, dass für 66 Prozent der befragten Unternehmenslenker die Ergebnisse einer computergesteuerten Datenanalyse noch kein wesentlicher Bestandteil ihrer geschäftlichen Entscheidungsfindung sind. Sie empfinden einen Widerspruch zwischen diesen Ergebnissen und ihrer Erfahrung oder Intuition. Sie vertrauen diesen Daten nicht  - noch nicht.

Diese Vertrauenslücke besteht, weil es keine Transparenz bei KI gibt. Stattdessen gibt es eine inhärente Angst vor dem Unbekannten, das diese Technologie umgibt. Wesentliche Faktoren von Vertrauen sind Verständnis und die Möglichkeit, Prozesse zu steuern und zu kontrollieren. Bei der künstlichen Intelligenz herrscht jedoch noch Unsicherheit darüber, inwieweit wir sie kontrollieren und steuern können. Das Ausmaß der Möglichkeiten von selbstlernenden und sich immer weiterentwickelnden Systemen geht über die Fähigkeiten des menschlichen Verstandes hinaus. 

Die Vertrauenslücke schließen

Die Kontrolle von KI wird von essenzieller Bedeutung für den Einsatz von selbstlernenden Systemen und das Vertrauen in die Ergebnisse sein, denn Unternehmensentscheidungen können Auswirkungen auf die Mitarbeiter, die Marke, das Wohlbefinden und die Sicherheit von Verbrauchern und Bürgern haben. Unternehmen sind daher in der Verantwortung, umfassende Richtlinien mit einem Fokus auf verantwortungsvolles Handeln zu etablieren. Diese stellen sicher, dass Entscheidungen, die von Algorithmen getroffen werden, durchgängig kontrolliert und auf ihre Glaubwürdigkeit und Objektivität überprüft werden. on Führungskräften erfordert der Einsatz von KI ein tiefes Verständnis der Möglichkeiten, Funktionen und Risiken sowie Kenntnis über die rechtlichen, ethischen und sozialen Auswirkungen. 

Unser englischsprachiges Whitepaper „Controlling AI“ beschreibt Methoden und Werkzeuge, die Unternehmenslenkern helfen, KI-Systeme zu beherrschen und Vertrauen in die Technologie zu gewinnen. Damit können sie Verantwortung für die Ergebnisse übernehmen und das volle Potenzial von künstlicher Intelligenz für ihr Unternehmen ausschöpfen.