„Ein Schiff ist im Hafen sicher, doch dafür werden Schiffe nicht gebaut“ ist ein Zitat, das dem amerikanischen Schriftsteller und Autor John August Shedd zugeschrieben wird. Analog dazu sind auch Unternehmen am sichersten, wenn sie keiner unternehmerischen Tätigkeit nachgehen, denen verschiedene Risiken immanent sind. Doch das widerspricht dem originären Zweck von Unternehmen.

Eines dieser inhärenten Risiken ist das Kreditrisiko. Es umfasst „[…] die finanziellen Wirkungen, die sich daraus ergeben, dass Geschäftspartner ihre vereinbarten Leistungen nicht, nicht vollständig oder nicht zu den vereinbarten Terminen erbringen.“ (Positionspapier VdT 2023, S.16). Die Steuerung des Kredit- oder Kontrahentenrisikos ist eine der zentralen Aufgaben einer Treasury Organisation (vgl. Positionspapier VdT 2023, S.5 & S.16) und laut einer kürzlich veröffentlichten KPMG-Studie eine der größten Sorgen in einem Multikrisen-Umfeld, das viele Treasurer in der heutigen Zeit herausfordert (vgl. Resilient Treasury April 2024, S. 6). 

Im Fokus steht häufig die Steuerung der Kreditrisiken gegenüber Finanzinstituten, zum Beispiel in Form von Einlagen oder der Erfüllung vertraglicher Pflichten bei derivativen Finanzinstrumenten. Das Management „klassischer Kreditrisiken“ aus Lieferungen und Leistungen ist dagegen häufig eher als Teilbereich im Rechnungswesen oder in reifen Organisationen sogar als eigene Abteilung im Finanzbereich angesiedelt. In beiden Fällen sollte die Risikostrategie den Rahmen für die Messung und Analyse der Risiken setzen, die entscheidungsrelevanten Kriterien, Steuerungs- und Überwachungsmechanismen definieren sowie Berichts- und Eskalationsformate und -wege festlegen. 

Vor jeder Entscheidung über ein neues Vertragsverhältnis ist eine Analyse des Risikos durchzuführen, die häufig als Ausfallwahrscheinlichkeit (engl. probability of default) des Vertragspartners in Verbindung mit der Höhe der Risikoposition (engl. exposure) und des Verlustes bei Ausfall des Vertragspartners (engl. loss given default) ausgedrückt wird. Diese Risikoanalyse ist im laufenden Geschäft in Form eines Monitorings regelmäßig zu aktualisieren.

Folglich dient die Kreditrisiko-Analyse sowohl als Startpunkt für den Kreditrisiko-Prozess als auch als wiederkehrende Tätigkeit im Kontext der laufenden Überwachung. Im Zentrum dieser laufenden Analyse stehen das Sammeln, Verarbeiten und Auswerten relevanter Daten. Dabei ist von entscheidender Bedeutung, die richtigen Daten und Quellen für die jeweils anzuwendenden Modelle auszuwählen. Diese Modelle wiederum sind ebenfalls permanent auf Aktualität sowie Präzision zu prüfen und bei Bedarf neu zu kalibrieren. Oft entscheidet in diesem Kontext aber auch die Verfügbarkeit geeigneter Daten, die Risikoposition und in manchen Fällen das zur Verfügung stehende Budget über das anzuwendende Modell. 

Abb. 1: Die Kreditrisikoanalyse im Kontext des Risiko Managements

Kreditrisikoanalyse

Quelle: KPMG AG

Die folgenden Ausführungen beziehen sich primär auf die Ermittlung der Ausfallwahrscheinlichkeit.

Im einfachsten Fall können von Ratingagenturen zur Verfügung gestellte Daten unter Zuhilfenahme von Übersetzungstabellen auf ein einheitliches Maß normiert werden. So entspricht beispielsweise ein Baa-Rating von Moody’s einem BBB-Rating von Standard & Poors oder Fitch und birgt ein moderates Kreditrisiko (https://www.boerse-frankfurt.de/wissen/wertpapiere/anleihen/rating-matrix) mit einer mittleren Ausfallwahrscheinlichkeit von 1,9% p.a. (https://www.deltavalue.de/credit-rating/). Zu beachten ist, dass Ratings in der Regel für kapitalmarktorientierte oder solche Unternehmen erstellt werden, die sich einem meist internationalen Investorenpublikum präsentieren wollen. 

Für kleine oder mittelständische Unternehmen können Auskunfteien oder auch Kreditversicherer als Informationsdienstleister fungieren. Auch hier werden die Daten in unterschiedlichen Formaten zur Verfügung gestellt, beispielsweise entspricht ein Creditreform-Bonitätsindex in Höhe von 208 einer jährlichen Ausfallwahrscheinlichkeit in Höhe von 0,12 % (https://www.creditreform.de/loesungen/bonitaet-risikobewertung). Ein Dun & Bradstreet Failure Score zwischen 1510 und 1569 dagegen bedeutet ein durchschnittliches Ausfallrisiko von 0,09 % jährlich (https://www.dnb.com/resources/financial-stress-score-definition-information.html). Des Weiteren ist bei der Entscheidung für einen Datenlieferanten die regionale Expertise zu berücksichtigen. So hat beispielsweise Schufa eine hohe Marktabdeckung in Deutschland, im österreichischen Markt ist hingegen der Kreditschutzverband führend (https://www.finanz.at/kredit/kreditschutzverband/).

Fortgeschrittene Ansätze verwenden Scorecards, in denen verschiedene Kriterien, wie Bilanzkennzahlen oder makroökonomische Faktoren gewichtet und unter Verwendung eines entsprechenden Kreditrisiko-Modells zu einer Ausfallwahrscheinlichkeit verdichtet werden. Mögliche Quellen für diese Daten sind neben den oben genannten Dienstleistern die jeweiligen Handelsregister. Diese stellen Jahresabschlüsse bzw. Bilanzen zu Verfügung. Denkbar ist aber auch, Marktdatenlieferanten wie Refinitv oder Bloomberg anzubinden und beispielsweise Zinssätze, CDS-Spreads, Arbeitslosenzahlen oder Inflationsgrößen bei der Analyse zu berücksichtigen, die entweder direkt Aufschluss über das Unternehmen oder über den wirtschaftlichen Rahmen geben können, in dem es agiert.

Zuletzt sind auch zusätzliche Datenquellen in den Fokus gerückt, wie Inhalte in sozialen Medien und andere öffentlich im Internet verfügbare Informationen. Dabei besteht jedoch auch die Gefahr, ein subjektiv verzerrtes Bild zu erhalten, das wohlmöglich auf Basis von Herdeneffekten entstanden ist, zum Beispiel wenn sich viele Menschen undifferenziert einer Meinung anschließen, die dann als relevant oder richtig interpretiert wird und nicht zwingend rational ist. Auf der anderen Seite könnten hier auch Informationen vorhanden sein, die Risiken weitaus früher anzeigen, als das bei herkömmlichen Datenquellen, die oft zeitverzögert veröffentlicht werden, der Fall ist. Als Beispiel sei an dieser Stelle die Insolvenz der Silicon Valley Bank genannt. Hier haben sich Investoren bereits am 09. März 2023 vor Handelsbeginn intensiv auf Twitter ausgetauscht und damit mutmaßlich den Bankrun mit befeuert, der die Bank am 10. März 2023 kollabieren ließ (https://fortune.com/2023/05/02/did-twitter-cause-silicon-valley-bank-run-financial-panic-economists-research/).

Nicht zu unterschätzen sind außerdem die wertvollen unternehmenseigenen Informationen, die in die Analyse einfließen können, zum Beispiel das historische Zahlungsverhalten von Kunden. Die Herausforderungen liegen hier häufig unter anderem in der nicht ausreichenden Verfügbarkeit der Daten, was oft auf fragmentierte IT-Landschaften zurückzuführen ist. Eine andere Frage stellt sich hinsichtlich der Interpretation. Wenn ein Kontrahent bisher nie verzögert gezahlt hat oder gar ausgefallen ist, kann dieser Kontrahent dann als risikofrei betrachtet werden?

Moderne Ansätze integrieren vor dem Hintergrund zügig voranschreitender, technologischer Entwicklungen künstliche Intelligenz in den Analyseprozess. Dafür ist es allerdings nötig, entsprechende Voraussetzungen zu schaffen. Künstliche Intelligenz muss unter Verwendung von Daten hinreichend „trainiert“ werden. Dabei ist eine hohe Qualität der Daten sicherzustellen, unabhängig davon, ob die Daten im Haus vorliegen oder extern bezogen werden. Häufige Probleme sind: Inkonsistenz, Ungenauigkeit, Unvollständigkeit, das Vorliegen von Duplikaten, obsolete Informationen, Irrelevanz, mangelnde Standardisierung und andere (vgl. https://www.forbes.com/sites/garydrenik/2023/08/15/data-quality-for-good-ai-outcomes/). Dafür schaffen bereits erste Ansätze für Tools Abhilfe, indem unter Einsatz künstlicher Intelligenz Qualitätssicherung und Datenbereinigung durchgeführt werden (https://blog.treasuredata.com/blog/2023/06/13/ai-ml-data-quality/) Large Language Modelle haben im Credit Management ebenfalls Einzug gehalten, beispielsweise bei der Verarbeitung von Jahresabschlüssen von Unternehmen. Sie stellen schon heute Mitarbeitenden komprimiert relevante Informationen zur Verfügung oder füttern Ausfallwahrscheinlichkeitsmodelle direkt mit den erforderlichen Daten zur weiteren Verarbeitung.

Neben der Qualität ist eine ausreichend große Anzahl von Datenpunkten erforderlich, um den Aussagegehalt einer durch ein KI-Modell angefertigten Prognose zu erhöhen. Doch selbst bei ausreichender Datenqualität und -menge besteht weiterhin das Risiko, dass Zusammenhänge in den historischen Daten nur bedingt erfasst werden, beispielsweise die Lieferkettenstörungen durch das im März 2021 im Suezkanal auf Grund gelaufene Container-Schiff „Ever Grand“, die historische Zinswende der EZB Anfang 2022 oder die Angriffe der Huthi auf die Handelsrouten im Roten Meer, die allein bei Hapag Lloyd zu monatlichen Mehrkosten im zweistelligen Millionenbereich führen (https://www.wiwo.de/politik/ausland/rotes-meer-diesen-einfluss-hat-der-konflikt-mit-den-huthi-auf-unternehmen/29597872.html). Solche Ereignisse und ihre Folgen verstärken das in der KPMG-Studie genannte Multikrisen-Umfeld. Hier bietet die Verwertung von Daten aus Nachrichten und sozialen Medien eine wahre Chance, diese historische Verzerrung auszutarieren (https://fastercapital.com/de/inhalt/Trends-bei-der-Kreditrisikoprognose--So-bleiben-Sie-mit-Trends-und-Innovationen-bei-der-Kreditrisikoprognose-auf-dem-Laufenden.html), da die Maschine riesige Datenmengen sehr schnell auswerten und potenzielle Korrelationen erkennen kann, die dem Menschen verborgen bleiben oder sich nicht in der Geschwindigkeit erschließen lassen. 

Somit bietet der Einsatz künstlicher Intelligenz vor allem bei der Verarbeitung von Massendaten Vorteile. Andererseits kann die übermäßige Verwendung zu blindem Vertrauen in die Technologie führen, obwohl das Phänomen der KI-Halluzinationen bereits große Aufmerksamkeit erfahren und dazu geführt hat, dass Datenschützer Beschwerden gegen Open AI einreichen (https://www.zeit.de/digital/datenschutz/2024-04/datenschutz-chatgpt-open-ai-beschwerde). Des Weiteren besteht auch die Gefahr, dass in den Quelldaten enthaltene (teils unbewusste) Vorurteile einen unerwünschten Einfluss auf das Ergebnis nehmen. Beispielsweise könnten Unternehmen, die aktuell eine starke Medienpräsenz erfahren, bevorzugt werden, obwohl diese nicht zwangsläufig mit der Kreditwürdigkeit korreliert. Um dem zuvorzukommen, empfiehlt es sich, KI stets Transparenz darüber ausweisen zu lassen, wie Entscheidungen zustande gekommen sind und welche Quellen dabei ausgewertet wurden. Das stellt aktuelle Modelle und Ansätze weiterhin vor große Herausforderungen. 

Unabhängig von der Art des zu verwendeten Modells ist stets zu prüfen, ob es weiterhin aktuell ist und belastbare Ergebnisse liefert, insbesondere bei nicht-linearen, vielschichtigen und einzigartigen Rahmenbedingungen. So stiegen im Zuge der CoVID-Pandemie die erwarteten Ausfallrisiken vieler Kreditnehmer unter anderem wegen Lieferengpässen oder Beeinträchtigung der Geschäftsgrundlage, zum Beispiel im Gastronomiegewerbe. Doch diese Entwicklung wurde durch Adjustierungen im deutschen Insolvenzrecht und intensive Finanzmaßnahmen teilweise konterkariert. Diese Erfahrung zeigt, dass auch kurzfristige, sehr umfassende Modellanpassungen nötig sein können, um die aktuelle Realität adäquat zu bewerten.

Die verwendeten Modelle sollten somit stets leistungsfähig, stabil, rational und effizient sein. Kombinationen aus statistischen Modellen und künstlicher Intelligenz könnten in Zukunft zu einer Verbesserung der Kreditrisikoprognose beitragen. In jedem Fall ist der aus dem Einsatz prognostizierte Nutzen einer umfassenden Kostenbetrachtung zu unterziehen und die Rahmenbedingungen im Unternehmen selbst sowie des Marktumfeldes zu berücksichtigen.

Quelle: KPMG Corporate Treasury News, Ausgabe 145, Juli 2024
Autoren:
Nils Bothe, Partner, Finance and Treasury Management, Corporate Treasury Advisory, KPMG AG
Philipp Knuth, Senior Manager, Finance and Treasury Management, Corporate Treasury Advisory, KPMG AG