11. März, 2025

FINMA erlässt neue Leitlinien zur KI-Governance und Risikosteuerung im Finanzsektor

Die Eidgenössische Finanzmarktaufsicht (FINMA) hat neue Leitlinien zur Governance und Risikosteuerung im Zusammenhang mit Künstlicher Intelligenz (KI) im Finanzsektor veröffentlicht. Diese FINMA-Mitteilung (08/2024), veröffentlicht im Dezember 2024, betont die wachsende Bedeutung von KI im Finanzwesen und die Notwendigkeit einer strengen Aufsicht über den Einsatz von KI in Finanz- und Rechnungswesenprozessen. Die Leitlinien heben wesentliche Risiken im Zusammenhang mit KI hervor und formulieren die aufsichtsrechtlichen Erwartungen der FINMA, wodurch sie einen bedeutenden Schritt in der Regulierung des KI-Einsatzes in der Schweiz markieren.

In diesem Artikel geben wir einen ausführlichen Überblick über die neuen FINMA-Leitlinien, analysieren die Auswirkungen auf Finanzinstitute in der Schweiz und diskutieren die weitergehenden regulatorischen Entwicklungen im Bereich Künstliche Intelligenz in der Finanzbranche.

Überblick über die FINMA-Leitlinien und zentrale Risiken

Die FINMA-Leitlinien thematisieren eine Vielzahl von Risiken, die mit dem Einsatz von KI in Finanzdienstleistungen verbunden sind. Die zunehmende Integration von KI in den Bereichen Bankwesen, Versicherungen und Finanzdienstleistungen birgt Risiken, die oft schwer abzuschätzen sind. Die FINMA identifiziert mehrere zentrale KI-bezogene Risiken, die Finanzinstitute aktiv steuern müssen:

Operationelle Risiken (Modellrisiken):

KI-Modelle können operationelle Risiken verursachen, insbesondere Modellrisiken. Dazu zählen Bedenken hinsichtlich der Robustheit und Genauigkeit von KI-Systemen, ihrer Verlässlichkeit sowie Probleme wie mangelnde Erklärbarkeit oder Verzerrungen (Bias) in Algorithmen. Beispielsweise könnte ein KI-basiertes Kreditbewertungssystem fehlerhafte Ergebnisse liefern, wenn es nicht ausreichend robust ist oder Verzerrungen aufweist, was zu falschen Entscheidungen und Verstößen gegen regulatorische Anforderungen führen kann.

Datenbezogene Risiken:

KI-Systeme sind auf große Mengen an Daten angewiesen. Die FINMA warnt vor Risiken im Zusammenhang mit der Datensicherheit, der Qualität und der Verfügbarkeit von Daten. Eine mangelhafte Datenqualität oder unzureichender Datenschutz können die Ergebnisse der KI beeinflussen und zu Problemen hinsichtlich Datenschutz und Genauigkeit führen. Die Sicherstellung hochwertiger, repräsentativer Daten und deren Schutz gemäß den geltenden Datenschutzgesetzen ist eine wesentliche Anforderung für eine rechtskonforme KI-Governance.

IT- und Cyberrisiken:

Da KI-gestützte Systeme softwarebasiert sind und oft tief in IT-Systeme integriert werden, verstärken sie bestehende IT- und Cyberrisiken. KI-Anwendungen können neue Sicherheitslücken schaffen oder Ziel von Cyberangriffen werden. Daher sind robuste Cybersicherheitsmaßnahmen und IT-Kontrollen erforderlich, um KI-Systeme zu schützen – insbesondere dann, wenn KI in kritischen Finanzbereichen wie algorithmischem Handel oder automatisierter Finanzberichterstattung eingesetzt wird.

Abhängigkeit von Drittanbietern:

Viele KI-Lösungen basieren auf externen Dienstleistern (z. B. Cloud-Dienste, KI-Plattformen oder externe Datenquellen). Die FINMA weist darauf hin, dass eine zunehmende Abhängigkeit von Drittanbietern als Risikofaktor betrachtet werden muss. Eine übermäßige Abhängigkeit von externen KI-Anbietern oder Cloud-Diensten kann Risiken bündeln und die direkte Kontrolle des Instituts verringern. Sollte ein Dienstleister ausfallen oder eine Sicherheitsverletzung auftreten, könnten operationelle Störungen oder regulatorische Verstöße die Folge sein. Die FINMA empfiehlt daher eine sorgfältige Due-Diligence-Prüfung sowie die Implementierung von Notfallplänen für den Umgang mit Dienstleisterausfällen.

Rechts- und Reputationsrisiken:

Der Einsatz von KI kann erhebliche rechtliche und reputationsbezogene Risiken nach sich ziehen, wenn keine ausreichenden Kontrollmechanismen bestehen. So könnte ein KI-gestützter Entscheidungsprozess unbeabsichtigte Diskriminierung bestimmter Kundengruppen verursachen oder Datenschutzbestimmungen verletzen. In solchen Fällen drohen regulatorische Sanktionen und öffentlicher Vertrauensverlust. Die FINMA hebt insbesondere rechtliche Risiken (z. B. Compliance mit regulatorischen Vorgaben, Haftung für KI-Entscheidungen) sowie Reputationsrisiken hervor. Finanzinstitute müssen antizipieren, wie KI-Ergebnisse zu Kundenbeschwerden, behördlicher Kontrolle oder Rechtsstreitigkeiten führen können, und entsprechende Risikokontrollen implementieren.

Beobachtungen der FINMA: Frühphase der KI-Governance

Ein zentrales Fazit der FINMA-Leitlinien ist, dass viele Finanzinstitute in der Schweiz sich noch in der frühen Phase der KI-Governance und des Risikomanagements befinden. Die FINMA hat im Rahmen ihrer Aufsichtstätigkeit festgestellt, dass viele Institute erst beginnen, KI-Anwendungsfälle zu entwickeln, und dass formale Governance-Strukturen für KI noch in Aufbau sind.

Angesichts dieser Erkenntnisse mahnt die FINMA zur raschen Implementierung effektiver KI-Governance-Mechanismen. Die Leitlinien betonen die Notwendigkeit einer klaren Identifikation, Bewertung, Steuerung und Überwachung von KI-Risiken im Rahmen des übergeordneten Risikomanagements von Finanzinstituten. Verwaltungsräte und Geschäftsleitungen müssen sich mit den eingesetzten KI-Systemen auseinandersetzen und sicherstellen, dass angemessene Risikokontrollen bestehen.

Die FINMA benennt zudem bewährte Praktiken und Maßnahmen aus ihrer Aufsichtspraxis. Obwohl die Leitlinien keine neuen verbindlichen Vorschriften enthalten, geben sie konkrete Empfehlungen zur Stärkung der KI-Governance. Beispielsweise sollten Finanzinstitute ein zentrales Verzeichnis aller eingesetzten KI-Modelle und -Tools führen, das deren Zweck, Datenbasis und Ergebnisse dokumentiert. Dadurch kann der Überblick über KI-Anwendungen gewahrt bleiben. Darüber hinaus betont die FINMA, dass Verantwortung nicht an KI oder Drittanbieter delegiert werden kann – letztlich bleibt der Mensch für KI-gestützte Entscheidungen haftbar.
Fazit und nächste Schritte

Die neuen Leitlinien der FINMA senden ein klares Signal: KI im Finanzwesen muss sorgfältig, verantwortungsbewusst und regulatorisch konform eingesetzt werden. Finanzinstitute in der Schweiz sollten umgehend ihre KI-Strategien überprüfen, Governance-Lücken schließen, Risikomanagementprozesse stärken und sicherstellen, dass ihre Nutzung von KI den Erwartungen der FINMA entspricht.

Goldblum and Partners verfolgt diese regulatorischen Entwicklungen genau und analysiert ihre Auswirkungen auf den Finanzsektor. Unser Team unterstützt Mandanten bei der Umsetzung der FINMA-Leitlinien – von der Durchführung von KI-Risikobewertungen bis zur Entwicklung rechtskonformer KI-Governance-Strukturen.
Quelle: FINMA

Haftungsausschluss: Dieser Artikel dient ausschließlich Informationszwecken und stellt keine Rechtsberatung dar. Er begründet kein Mandatsverhältnis. Für eine individuelle rechtliche Beratung zu KI-Regulierungen und Compliance kontaktieren Sie bitte Goldblum and Partners.

Kontakt

Für weitere Informationen über unsere Dienstleistungen, die aktuelle Gesetzgebung oder zur Besprechung des konkreten Falls kontaktieren Sie bitte:
Stockerstrasse, 45,
8002 Zurich

Baarerstrasse, 25,
6300 Zug
Show more
Inhaltsübersicht
Tätigkeitsbereiche
Standorte
Stockerstrasse, 45,
8002 Zürich
Baarerstrasse, 25,
6300 Zug
Folgen Sie uns
Facebook
LinkedIn
X.com
© 2008-2025 Copyright Goldblum und Partner AG. Alle Rechte vorbehalten.
Haftungsausschluss: Die Informationen auf dieser Website sind nicht als Rechtsberatung gedacht und begründen kein Mandatsverhältnis. Die hier zur Verfügung gestellten Informationen, Dokumente oder Formulare sind nur für allgemeine Informationszwecke bestimmt und dürfen nicht als Rechtsberatung angesehen werden. Die Gesetze ändern sich regelmässig; daher sind die Informationen auf dieser Website möglicherweise nicht korrekt. Es ist unbedingt erforderlich, dass Sie einen Rechtsbeistand aufsuchen, um Ihre Rechte und Pflichten nach geltendem Recht und unter Berücksichtigung Ihrer spezifischen Umstände zu ermitteln.
Nach oben
Instagram