Zuverlässiger Einsatz künstlicher Intelligenz im Finanzsektor

BSI hat den weltweit ersten Katalog zur Einhaltung von Standards für künstliche Intelligenz veröffentlicht

Das “Bundesamt für Sicherheit in der Informationstechnik” (BSI) veröffentlichte am 2. Februar 2021 die erste Ausgabe des Standardkatalogs für den vertrauenswürdigen und sicheren Einsatz künstlicher Intelligenz (KI). Die Kriterien im AI Cloud Service Compliance Criteria Catalogue (AIC4) können auf vielfältige Weise verwendet werden: Als Grundlage für Tests gemäß ISAE 3000 (überarbeitete Ausgabe) schaffen sie Transparenz für Benutzer von AI Services. Sie legen auch eine solide Grundlage für die Qualitätssicherung der KI im Entwicklungs- und Betriebsprozess. Deutsche Unternehmen haben im vergangenen Jahr durch den direkten Einsatz von Produkten und Dienstleistungen der künstlichen Intelligenz einen Umsatz von fast 60 Milliarden Euro erzielt. Der größte Beitrag von Finanzdienstleistungen, rund 17.3 Milliarden Euro. Insgesamt wird das BIP der Gesamtwirtschaft aufgrund künstlicher Intelligenz basierender Technologien bis 2030 voraussichtlich um 11,3% wachsen.

Obwohl der Einsatz von KI zugenommen hat, zeigen die Fakten, dass KI-Projekte häufig ihre gewünschten Ziele nicht erreichen. Einer der Gründe für das Scheitern des Projekts ist die mangelnde Governance im KI-Prozess. Wenn KI effektiv in Geschäftsprozessen eingesetzt wird, müssen auch Risiken wie Compliance-Verstöße und Reputationsschäden beobachtet und kontrolliert werden. Die Sicherheit, Transparenz und Robustheit des Systems sind für den Einsatz von KI-Systemen in Unternehmen von entscheidender Bedeutung, um das Vertrauen zu stärken und die Erfolgsquote von KI zu erhöhen.

Künstliche Intelligenz in der Finanzindustrie

Der Einsatz künstlicher Intelligenz im Finanzsektor hat ein großes Potenzial. Einer der Gründe ist, dass der Finanzsektor ein hohes Potenzial für die Digitalisierung hat, da die meisten Finanzprodukte datengesteuert sind und normalerweise keine physische Interaktion erfordern.

Beispielsweise sieht sich der Finanzsektor neuen Kundenbedürfnissen gegenüber, die zeit- und standortbezogene Dienstleistungen erfordern. Durch die Verwendung von Chatbots und interaktiven Sprachantworten können Kunden beispielsweise 24/7/365 Kontaktpunkte erhalten, und die Verarbeitungsgeschwindigkeit kann auch durch effizientere Prozesse beschleunigt werden.

Der Einsatz von KI in Entscheidungsprozessen wie Krediten kann ebenfalls einen hohen Mehrwert bieten. Dank des selbstlernenden Systems können andere regelbasierte Prozesse (wie Bewertungen oder Betrugserkennung) optimiert und den Kunden schneller mitgeteilt werden. Darüber hinaus kann AI vorhandene Informationen verwenden, um das geeignete Cross-Selling-Potenzial zu ermitteln.

Mit dem Einsatz neuer Technologien im Zusammenhang mit den neuen Möglichkeiten sind jedoch neue Herausforderungen und Risiken verbunden. Finanzinstitute sind eher dafür verantwortlich, KI-Systeme sicher, transparent und robust zu gestalten und so das Vertrauen ihrer Kunden in KI zu stärken. Der AI Cloud Service Compliance-Standardkatalog von BSI zielt darauf ab, AI-bezogene Qualitäts-, Sicherheits- und Compliance-Herausforderungen zu lösen: Die enthaltenen Standards bilden eine solide Grundlage für die Qualitätssicherung der KI während des gesamten Lebenszyklus.

Was ist der AI Cloud Service Compliance Standardkatalog (AIC4)?

Der AI Cloud Service Compliance-Standardkatalog (AIC4) ist der weltweit erste Katalog spezifischer Standards mit betrieblichen Anforderungen für offiziell freigegebene AI-Tests. Der Standardkatalog wurde von BSI entwickelt und ist eine Antwort auf den Markt, die Bundesregierung und die Bedürfnisse der Europäischen Kommission nach transparenten und spezifischen robusten KI-Standards. Dies bedeutet, dass Deutschland und alle Länder und internationalen Anbieter, die dem Standard folgen, eine führende Position im Wettlauf um zuverlässige, sichere und rückverfolgbare KI-Dienste einnehmen, die einen Wettbewerbsvorteil entwickeln können.

Für die aktuelle oder zukünftige Verwendung von KI können Unternehmen AIC4-Standards verwenden, um den gesamten Sicherheitsprozess und die Qualitätsanforderungen im KI-Lebenszyklusmanagement zu entwerfen.

AIC4- Kriterienkatalog mit sieben Themengebieten

Die Kriterien des AIC4s gliedern sich in die folgenden Bereiche:
Compliance - AIC4-Kriterienkatalog

Zur Zuverlässigkeit gehört die Einrichtung von Prozessen zur kontinuierlichen Ausführung von KI-Diensten in einer produktiven Betriebsumgebung sowie eines Prozesses zur Untersuchung möglicher Fehler und Ausfälle. Die ordnungsgemäße Verwaltung, Protokollierung, Fehlerbehandlung und Sicherung der Ressourcen muss durchgeführt werden

Sicherheit und Robustheit beinhalten den Schutz von KI-Systemen und die Verhinderung von Manipulationsversuchen unter sich ständig ändernden System- und Umgebungsbedingungen. Der Schwerpunkt liegt hier insbesondere auf der Erkennung böswilliger Eingaben und der Implementierung gezielter Angriffe durch geeignete Tests. Die Trainingspipeline entlang des Algorithmus muss die Robustheit der KI-Dienste und die Sicherheit der Daten gewährleisten.

Performance & Funktionalität  können sicherstellen, dass KI-Dienste die festgelegten Leistungsziele basierend auf ihren Eigenschaften und dem Verwendungszweck erfüllen. Hier müssen geeignete Verfahren für das Training, die Verifizierung und das Testen von KI-Systemen festgelegt werden. Die Qualität des trainierten Algorithmus wird anhand von Leistungsindikatoren wie Genauigkeit, Empfindlichkeit oder Fehlerrate bewertet, und der AI-Service kann entsprechend gemessen werden.

Die Datenqualität erfordert die Festlegung eines Richtlinienrahmens für die ordnungsgemäße Datenverarbeitung, um Daten von AI zu trainieren und zu testen und eine angemessene Datenqualität sicherzustellen.

Das Datenmanagement schafft Bedingungen für die strukturierte Datenerfassung und -übertragung aus vertrauenswürdigen Datenquellen während des gesamten Lebenszyklus des KI-Systems. Dies sollte durch die Definition datenbezogener Rahmenbedingungen erfolgen, die für die Entwicklung und den Betrieb von KI-Diensten gelten und Schutz vor unbefugtem Zugriff bieten.

Bias zielt darauf ab, mögliche Verzerrungen oder diskriminierende Ergebnisse von KI-Diensten zu identifizieren und zu untersuchen. Mathematische Verfahren werden verwendet, um Verzerrungen zu bewerten, um die angemessene Ausgabe des Algorithmus mit angemessener Leistung auszugleichen. Beispielsweise muss die durch Datenungleichgewichte verursachte Entscheidungsverzerrung kontinuierlich überprüft und mithilfe bestimmter Algorithmen reduziert oder beseitigt werden.

Die Erklärbarkeit umfasst die Implementierung geeigneter Technologien und Maßnahmen, um den Benutzern das Verständnis des Flusses von KI-Lösungen und der daraus resultierenden Entscheidungen zu erleichtern.

Sicheres Cloud Computing basierend

Der AIC4-Standardkatalog deckt den AI-Lebenszyklus von der Entwicklung bis zum Betrieb ab und ist für alle AI-Dienste konzipiert, die in einer Cloud-Umgebung gehostet werden, unabhängig von ihrem Bereitstellungsplan (öffentlich, privat, Community oder Hybrid). Um den sicheren Betrieb der Basis-Cloud-Infrastruktur über den AI-spezifischen Winkel von AIC4 hinaus abzudecken, muss der C5-Katalog (Cloud Computing Compliance Standard-Katalog) berücksichtigt werden [4]. Der C5-Katalogstandard definiert die Mindestanforderungen für sicheres Cloud-Computing und richtet sich an Cloud-Dienstleister, deren Prüfer und Kunden. Die Standards des AIC4-Katalogs ergänzen sich und konzentrieren sich auf den AI-Lebenszyklus. Gemeinsam haben sie ein prozess- und kontrollorientiertes Framework für die Verwendung von KI in Cloud-Lösungen erstellt.

Für KI-Dienste, die intern verwendet werden und daher nicht in einer Cloud-Umgebung gehostet werden, können die verschiedenen Standards des AIC4-Katalogs für eine kostenlose Zertifizierung angepasst werden, um KI-Dienste zu bewerten. Dabei werden mögliche Schwachstellen und Ausgangspunkte für weitere Verbesserungen angezeigt.

Fazit

AIC4 ist das erste Unternehmen, das ein standardisiertes Framework in Form von AI-spezifischen Standards erstellt, um die Sicherheit, Transparenz und Robustheit von AI-Diensten zu gewährleisten. Es wird verwendet, um KI zu prüfen und Qualitätsmetriken und Sicherheitsstandards für KI-Lebenszyklusprozesse zu entwickeln und zu entwerfen, wodurch Vertrauen in die Verwendung von KI für Unternehmen und Benutzer geschaffen wird. Der AIC4-Katalog legt daher den Grundstein für die Vereinheitlichung des deutschen KI-Marktes und schafft einen einheitlichen Ausgangspunkt für eine zuverlässige KI-Nutzung..