AI-Grundsätze
Für einen verantwortungsvollen Einsatz von AI.
Für einen verantwortungsvollen Einsatz von AI.
Data-driven Banking mit verantwortungsvoller AI
Wir entwickeln die Finanzindustrie zu einem durchgängigen und sicheren Ökosystem, um ihr volles Potenzial zu entfalten. Deshalb verpflichten wir uns, die Kraft von Daten und AI zum Vorteil unserer Kund:innen zu nutzen. Um eine ethische und verantwortungsvolle Entwicklung und Nutzung von AI sicherzustellen, haben wir klare AI-Grundsätze definiert, die uns leiten.
Unsere AI-Grundsätze
Diese Grundsätze schaffen Vertrauen und Transparenz und ermöglichen uns, verantwortungsvolle AI-Lösungen für unsere data-driven Banking Angebote zu entwickeln und zu implementieren.
Die AI-Grundsätze von Contovista auf einem Blick.
Privacy by Design
Alle Modelle basieren auf Non-CID Daten. Die Verarbeitung erfolgt DSGVO-konform, vorbereitet auf kommende Regulierungen wie den EU AI Act.
Shared Learning Effekt
Die Modellqualität verbessert sich durch kontinuierliches Training mit anonymisierten Daten. So entstehen robustere Modelle, die Bias und Overfitting signifikant reduzieren.
Erklärbarkeit & Kontrolle
Unsere AI ist vollständig nachvollziehbar. Alle Modelle sind dokumentiert, versioniert und auditierbar. Banken steuern Konfiguration und Einsatzbereich gemäss eigener Risiko- und Compliance-Strategie.
AI für ein besseres Kundenerlebnis: präzise, skalierbar, selbstlernend
Unsere AI-Architektur kombiniert verschiedene Verfahren zu einem modularen System. Der Ergebnis: maximale Datenqualität, Skalierbarkeit und Prognosekraft:
- Generative AI & LLMs: LLM-basierte Pipelines standardisieren Transaktionsdaten und generieren automatisiert aussagekräftige Bezeichnungen (»Pretty Names»), ergänzen Logos und schlagen passende Händler- oder Gegenparteikategorien vor. Das Resultat: Hochaktuelle Datenbestände als Basis für aussagekräftige Insights.
LLM-gestützte Finanzanalysen verarbeiten Kundenfragen zu Transaktionen, führt automatisch die notwendigen Analysen durch und präsentiert die Ergebnisse direkt und verständlich in natürlicher Sprache. - Überwachtes maschinelles Lernen: Trainierte Modelle prognostizieren z. B. Reiseausgaben, Vertragsverlängerungen oder Produktinteresse – zur datenbasierten Lead-Generierung und nahtlosen Integration in bestehende CRM-Prozesse.
- Unüberwachtes maschinelles Lernen: Clustering-Algorithmen identifizieren Kundensegmente auf Basis von Verhalten, Lebensereignissen und Finanzmustern – zur gezielten Ansprache und Produktoptimierung.
- Probabilistische Ansätze: Modellierung von Unsicherheiten erlaubt robuste Forecasts, etwa zur Liquidität, Churn-Wahrscheinlichkeit oder Nutzung von Mehrwertservices.
Wir setzen je nach Anwendungsfall ein breites Spektrum an AI-Technologien ein.
Klassische Machine-Learning- sowie probabilistische und stochastische Modelle nutzen wir für Prognosen, Klassifikation, Segmentierung und risikobezogene Analysen.
LLMs und Generative AI kommen bei sprach- und wissensintensiven Aufgaben zum Einsatz. Dazu zählen Verbesserungen der Datenqualität, kundennahe Lösungen wie agentische Assistenten für bankinterne Risikofunktionen sowie Endnutzerangebote wie der AI Financial Analyst im AI Finance Manager.
Grundsätzlich wählen wir den Technologie-Stack konsequent entlang des konkreten Problems. Das gilt für interne Anwendungen, Kundenlösungen und Endnutzer-Use-Cases gleichermassen.
Nein, nicht standardmässig. Die Modellwahl richtet sich nach dem jeweiligen Anwendungsfall. Wir setzen primär auf Open-Source-Modelle und -Bibliotheken, insbesondere wenn On-Premise-Betrieb, Performance, Kostenkontrolle und Data Governance entscheidend sind.
Für wissens- oder sprachintensive Aufgaben nutzen wir selektiv Closed-Source-LLM-Services, sofern sie einen klaren Mehrwert bieten.
Wir nutzen alle drei Ansätze, abhängig vom Problem:
- Open-Source-Modelle bilden die Basis vieler KI-Funktionen
- Proprietäre Modelle entwickeln wir in-house für klassische Machine-Learning- und domänenspezifische Aufgaben
- Closed-Source-LLMs setzen wir gezielt ein, wenn sie klare Vorteile liefern
Die Entscheidung basiert auf Genauigkeit, Sicherheit, Deployment-Anforderungen wie On-Premise, Latenz und Kosten.
Ja. Modelle werden je nach Aufgabe trainiert, feinjustiert oder über die Zeit iterativ angepasst.
Dazu zählen Domänen- und Datenanpassungen, Modelltraining und Fine-Tuning sowie die Optimierung von Prompts und Verarbeitungspipelines.
Beides ist möglich. Die AI-Funktionen sind als SaaS verfügbar, oder können über kundenspezifische Installationen auf Bankenseite betrieben werden. Die Wahl richtet sich nach regulatorischen, sicherheitsrelevanten und infrastrukturellen Anforderungen.
Je nach Setup bei der Bank erfolgt der Betrieb auf Schweizer Cloud-Infrastruktur oder On-Premise.
Die Umsetzung entspricht den Anforderungen der DSGVO, der FINMA sowie dem EU AI Act. Wir setzen durchgängig auf moderne kryptografische Standards, um Datenschutz und Sicherheit jederzeit sicherzustellen.