AI-Grundsätze

Für einen verantwortungsvollen Einsatz von AI.

Für einen verantwortungsvollen Einsatz von AI.

Data-driven Banking mit verantwortungsvoller AI

Wir entwickeln die Finanzindustrie zu einem durchgängigen und sicheren Ökosystem, um ihr volles Potenzial zu entfalten. Deshalb verpflichten wir uns, die Kraft von Daten und AI zum Vorteil unserer Kund:innen zu nutzen. Um eine ethische und verantwortungsvolle Entwicklung und Nutzung von AI sicherzustellen, haben wir klare AI-Grundsätze definiert, die uns leiten.

Unsere AI-Grundsätze

Diese Grundsätze schaffen Vertrauen und Transparenz und ermöglichen uns, verantwortungsvolle AI-Lösungen für unsere data-driven Banking Angebote zu entwickeln und zu implementieren.

Die AI Grundsätze von Contovista

Die AI-Grundsätze von Contovista auf einem Blick.

Privacy by Design

Alle Modelle basieren auf Non-CID Daten. Die Verarbeitung erfolgt DSGVO-konform, vorbereitet auf kommende Regulierungen wie den EU AI Act.

Shared Learning Effekt

Die Modellqualität verbessert sich durch kontinuierliches Training mit anonymisierten Daten. So entstehen robustere Modelle, die Bias und Overfitting signifikant reduzieren.

Erklärbarkeit & Kontrolle

Unsere AI ist vollständig nachvollziehbar. Alle Modelle sind dokumentiert, versioniert und auditierbar. Banken steuern Konfiguration und Einsatzbereich gemäss eigener Risiko- und Compliance-Strategie.

AI für ein besseres Kundenerlebnis: präzise, skalierbar, selbstlernend

Unsere AI-Architektur kombiniert verschiedene Verfahren zu einem modularen System. Der Ergebnis: maximale Datenqualität, Skalierbarkeit und Prognosekraft:

  • Generative AI & LLMs: LLM-basierte Pipelines standardisieren Transaktionsdaten und generieren automatisiert aussagekräftige Bezeichnungen (»Pretty Names»), ergänzen Logos und schlagen passende Händler- oder Gegenparteikategorien vor. Das Resultat: Hochaktuelle Datenbestände als Basis für aussagekräftige Insights.
    LLM-gestützte Finanzanalysen verarbeiten Kundenfragen zu Transaktionen, führt automatisch die notwendigen Analysen durch und präsentiert die Ergebnisse direkt und verständlich in natürlicher Sprache.
  • Überwachtes maschinelles Lernen: Trainierte Modelle prognostizieren z. B. Reiseausgaben, Vertragsverlängerungen oder Produktinteresse – zur datenbasierten Lead-Generierung und nahtlosen Integration in bestehende CRM-Prozesse.
  • Unüberwachtes maschinelles Lernen: Clustering-Algorithmen identifizieren Kundensegmente auf Basis von Verhalten, Lebensereignissen und Finanzmustern – zur gezielten Ansprache und Produktoptimierung.
  • Probabilistische Ansätze: Modellierung von Unsicherheiten erlaubt robuste Forecasts, etwa zur Liquidität, Churn-Wahrscheinlichkeit oder Nutzung von Mehrwertservices.
Welche AI-Technologien kommen zum Einsatz?
Kommen LLM-Services von Big-Tech-Anbietern wie OpenAI oder Google zum Einsatz?
Verwendet ihr Open-Source-, Closed-Source- oder proprietäre Modelle?
Werden Modelle auf Use Cases trainiert oder angepasst?
Bietet ihr AI als SaaS oder vor Ort an?
Wo befinden sich die Server und wie stellt ihr den Datenschutz sicher?
Welche AI-Technologien kommen zum Einsatz?

Wir setzen je nach Anwendungsfall ein breites Spektrum an AI-Technologien ein.
Klassische Machine-Learning- sowie probabilistische und stochastische Modelle nutzen wir für Prognosen, Klassifikation, Segmentierung und risikobezogene Analysen.

LLMs und Generative AI kommen bei sprach- und wissensintensiven Aufgaben zum Einsatz. Dazu zählen Verbesserungen der Datenqualität, kundennahe Lösungen wie agentische Assistenten für bankinterne Risikofunktionen sowie Endnutzerangebote wie der AI Financial Analyst im AI Finance Manager.

Grundsätzlich wählen wir den Technologie-Stack konsequent entlang des konkreten Problems. Das gilt für interne Anwendungen, Kundenlösungen und Endnutzer-Use-Cases gleichermassen.

Kommen LLM-Services von Big-Tech-Anbietern wie OpenAI oder Google zum Einsatz?

Nein, nicht standardmässig. Die Modellwahl richtet sich nach dem jeweiligen Anwendungsfall. Wir setzen primär auf Open-Source-Modelle und -Bibliotheken, insbesondere wenn On-Premise-Betrieb, Performance, Kostenkontrolle und Data Governance entscheidend sind.

Für wissens- oder sprachintensive Aufgaben nutzen wir selektiv Closed-Source-LLM-Services, sofern sie einen klaren Mehrwert bieten.

Verwendet ihr Open-Source-, Closed-Source- oder proprietäre Modelle?

Wir nutzen alle drei Ansätze, abhängig vom Problem:

  • Open-Source-Modelle bilden die Basis vieler KI-Funktionen
  • Proprietäre Modelle entwickeln wir in-house für klassische Machine-Learning- und domänenspezifische Aufgaben
  • Closed-Source-LLMs setzen wir gezielt ein, wenn sie klare Vorteile liefern

Die Entscheidung basiert auf Genauigkeit, Sicherheit, Deployment-Anforderungen wie On-Premise, Latenz und Kosten.

Werden Modelle auf Use Cases trainiert oder angepasst?

Ja. Modelle werden je nach Aufgabe trainiert, feinjustiert oder über die Zeit iterativ angepasst.
Dazu zählen Domänen- und Datenanpassungen, Modelltraining und Fine-Tuning sowie die Optimierung von Prompts und Verarbeitungspipelines.

Bietet ihr AI als SaaS oder vor Ort an?

Beides ist möglich. Die AI-Funktionen sind als SaaS verfügbar, oder können über kundenspezifische Installationen auf Bankenseite betrieben werden. Die Wahl richtet sich nach regulatorischen, sicherheitsrelevanten und infrastrukturellen Anforderungen.

Wo befinden sich die Server und wie stellt ihr den Datenschutz sicher?

Je nach Setup bei der Bank erfolgt der Betrieb auf Schweizer Cloud-Infrastruktur oder On-Premise.
Die Umsetzung entspricht den Anforderungen der DSGVO, der FINMA sowie dem EU AI Act. Wir setzen durchgängig auf moderne kryptografische Standards, um Datenschutz und Sicherheit jederzeit sicherzustellen.