zurück
24.12.2025 8 min read

Skalierung vs. Differenzierung:

Die richtige AI-Strategie für den Finanzsektor

AI im Banking: Grenzenlose Potenziale?

AI ist der Mega-Trend unserer Zeit. Beinahe unbegrenzt erscheinen die Potenziale des neuen Paradigmas – auch im Finanzsektor. Massive Effizienzsteigerungen, hyperpersonalisierte Services und zutiefst disruptive Innovationen werden durch Generative AI (GenAI) möglich. Doch inzwischen mehren sich auch kritische Stimmen. Die Investitionspläne der Tech-Konzerne für Rechenzentren und AI-Chips steigen in schwindelerregende Höhen. Mancher vermeintlich attraktive GenAI-Pilot entpuppt sich derweil im Unternehmensalltag der Banken als teure Sackgasse.

Chancen für Schweizer Finanzinstitute – jenseits des Hypes

Können Finanzinstitute solche Probleme mit einer zusätzlichen Steigerung der Anstrengungen meistern, sprich: durch noch mehr Investitionen? Oder stösst die unaufhörliche AI-Skalierung derzeit womöglich an Grenzen, haben wir es mit einer Blase zu tun? Und wie können Banken trotz dieser unübersichtlichen Lage dafür sorgen, dass ihr Angebot technologisch am Ball bleibt, den Kund:innen eine zukunftsweisende User Experience liefert und der Konkurrenz Paroli bietet?

Diese Fragen wollen wir im Folgenden klären, indem wir die Grenzen der AI-Skalierung etwas grundsätzlicher ausloten. Dabei zeigen wir, wie Banken gleichwohl Wettbewerbsvorteile mit AI sicherstellen: durch Kooperationen mit externen Anbietern, die einen Fokus auf wirksame AI-Differenzierung erlauben.

Viel hilft nicht immer viel: Grenzen der AI-Skalierung

Bei den AI-Investitionen scheint es aktuell wirklich keine Grenzen zu geben. Ob sich durch immer weiter forcierte Skalierung die angesprochenen Hürden beim AI-Einsatz überwinden lassen, ist allerdings mehr als fraglich. Denn viele der Herausforderungen sind grundsätzlicher Natur. Bei den grossen Sprachmodellen (Large Language Models, LLMs), auf denen die neuen Lösungen beruhen, handelt es sich um rein probabilistische Systeme. Sie weisen kein inhaltliches Verständnis von Sachverhalten auf, sondern vervollständigen Sätze auf der Grundlage von Wahrscheinlichkeiten.

Mit echter Intelligenz hat AI in dieser Form wenig zu tun. Dennoch lassen sich damit sensationelle Ergebnisse erzielen – aber nur, wenn die inhärenten Leistungsgrenzen von LLMs bedacht werden, die durch keine noch so aufwendige Skalierung beseitigt werden können:

  • LLMs «halluzinieren» manchmal, das heisst: Sie machen gelegentlich unwahre Aussagen und geben sie als wahr aus.
  • Die verbreiteten LLM-basierten Chatbots lernen in der Anwendung nicht dazu. Darauf beruht schliesslich ja gerade der Charme des Ansatzes: Die Tools sind vortrainiert und universell, sie müssen nicht für jedes neue Anwendungsgebiet neu trainiert werden.

 

Inkrementeller Fortschritt, systembedingte Limits

Es wäre zwar trotz dieser Barrieren möglich, ein Modell durch spezifisches Training beispielsweise auf Basis des privaten Datenbestands einer Bank noch weiter zu perfektionieren. Aber das wäre sehr aufwendig, und Halluzinationen lassen so ebenfalls nicht ausschliessen. Und auch bei der neuen Ausbaustufe der AI-Revolution, der Agentic AI, ergeben sich die genannten Einschränkungen. AI Agents können nicht nur Content generieren, sondern autonom handeln. Doch dies geschieht immer noch auf Basis eines LLMs, erweitert um Handlungskategorien.
Zukünftige Weiterentwicklungen werden sicherlich Verbesserungen bringen, insbesondere beim Lernen sowie bei Geschwindigkeit und Kosten. Solche Optimierungen bleiben aber zwangsläufig inkrementell, die grundsätzlichen Grenzen der Skalierung können sie nicht überwinden.

Dotcom-Ära reloaded?

Zu den technologischen Grenzen kommen auch die finanziellen Aspekte des Skalierens. Der aktuelle Hype um AI mitsamt der explodierenden Investitionen und Kosten erinnert viele Beobachter:innen an die Dotcom-Ära, als die Bewertungen von Internet-Firmen an der Börse durch die Decke schossen. Auch wenn es bei diesem Boom vor rund zwei Jahrzehnten zu Übertreibungen und danach zu einer drastischen Konsolidierung kam: Das Internet brachte in der Folge ja tatsächlich revolutionäre Fortschritte, und übrig blieb eine Reihe von riesigen Tech-Konzernen, die prosperieren und die Digitalisierung vorantreiben.

Ähnlich könnte es nun beim Thema AI ablaufen – trotz der genannten Hürden und Barrieren. Die enormen Anlaufkosten kann zwar nicht jedes Unternehmen stemmen, aber im Ergebnis wird die Technologie die Welt dramatisch verändern. So auch im Banking: Den grössten Schweizer Banken ist es möglich, eigene AI-Organisationen aufzubauen, State-of-the-Art-Modelle zu betreiben und innovative Anwendungen zu entwickeln, die eine neue Ära des Digital Banking einläuten. Diese Häuser können sich den signifikanten Aufwand dafür leisten – von Rechenpower und Energieversorgung über die Finanzierung bis zum erforderlichen AI Talent. Bei kleineren Finanzinstituten sieht das natürlich etwas anders aus. Doch um von den AI-Chancen jenseits des Hypes zu profitieren, ist ein solches Commitment aber auch gar nicht unbedingt nötig.

Die AI-Strategie für Finanzinstitute

Der entscheidende Hebel für erfolgreiche AI-Innovation im Finanzsektor ist eine Kooperation mit externen AI-Experten wie Contovista. Dadurch sparen Banken die grossen Investitionskosten, die bei einer Eigenentwicklung anfallen (siehe dazu auch unseren Blog zum Thema „Make or Buy“). Vorausgesetzt, sie fokussieren dabei auf innovative und kundenzentrierte Lösungen, die einen echten Wertbeitrag bringen und eine wirksame Marktdifferenzierung erlauben. Das empfiehlt sich um so mehr, als AI in naher Zukunft zur Commodity werden dürfte, also zu einer austauschbaren Grundressource, die an sich keine Differenzierung mehr erlaubt.

Demgegenüber ist Differenzierung gerade das, was die Lösungen von Contovista auszeichnet. Unsere AI-Strategie ist massgeschneidert auf die Bedürfnisse von Banken und ihrer Kund:innen: Contovista verbindet fundierte Branchenkenntnis mit einem nachhaltigen «Data Moat» und AI-Expertise. Dieser «Burggraben» beruht auf der jahrelangen Erfahrung mit der Analyse von Kontotransaktionen in der Schweiz, was in Kombination mit proprietären AI-Fähigkeiten hoch spezifische Erkenntnisse und Anwendungen ermöglicht. Solche «Nischen-Expertise» wäre für Dritte nur mit erheblichem Aufwand aufzubauen – daher erlaubt sie nachhaltige Differenzierung.

Unsere technologische Formel: ML plus LLM

Technologisch gesehen kombiniert der Ansatz von Contovista zwei Ebenen. Die erste Ebene umfasst robuste, spezialisierte Systeme für die Kategorisierung von Transaktionsdaten und ihre Analyse durch traditionelles Machine Learning (ML). Dafür haben wir unsere Enrichment Engine für die Datenkategorisierung und unsere Client Analytics für die Auswertung entwickelt. Dieser Ansatz ist ökonomisch, effizient und hoch präzise und kundenzentriert, denn die Analysen liefern handlungsrelevante Insights zur Finanzsituation (etwa Gehaltsentwicklung, neue finanzielle Verpflichtungen, Churn-Signale. Immobilienfinanzierung, Risikoprofil).

Auf der zweiten Ebene nutzen wir dann GenAI, um die Insights zu operationalisieren. Mit schlanken, effizienten LLMs bauen wir produktive Workflows rund um die Transaktionsdaten: effiziente Schnittstellen, Automatisierungen und Entscheidungsunterstützung etwa für die Kundenberatung oder das Cross-Selling.

Überlegener ROI – mit AI-Lösungen von Contovista

Die Lösungen von Contovista kombinieren also Domänen-spezifische Analytics auf ML-Basis mit den Vorteilen von GenAI. Die Strategie lautet somit: Differenzierung statt grenzenloser Skalierung und der damit verbundenen Kosten – oder anders gesagt, Skalierung nur da, wo sie Sinn macht. Aus Sicht der Finanzinstitute steht damit ein wirksamer Transformationshebel bereit, dessen ROI die kostspieligen Mega-Initiativen der grossen Player in vielen Fällen übertreffen dürfte.

Willst du mehr darüber erfahren, wie Schweizer Banken mit der richtigen Strategie die Risiken des AI-Hypes umschiffen und eine fokussierte Transformation umsetzen? Dann wende dich einfach an unsere Expert:innen.

Das könnte dich auch interessieren