Event Driven Data Streams | Connect

Helvetia Versicherung Schweiz
Event-Driven Datenintegration Versicherungen

Im Projekt "Event Driven Data Streams | Connect" unterstützte b-nova die Helvetia Versicherung Schweiz beim Aufbau und der Weiterentwicklung event-getriebener Datenströme zwischen verteilten Systemen. Im Fokus standen die zuverlässige Integration heterogener Anwendungen über Apache Kafka, die Modellierung von Topics und Datenflüssen mit Avro-Schemas sowie die technische Umsetzung robuster Schnittstellen für asynchrone Kommunikation auf Basis von Quarkus und Java. Ergänzend begleiteten wir Schema-Evolution, Fehlerbehandlung, Testing, Monitoring, GitOps-basiertes Deployment und die kontinuierliche Verbesserung der Integrationslandschaft bis in den produktiven Betrieb.

Biggest challenge

Zuverlässige Anbindung verteilter Systeme über asynchrone Datenströme mit konsistenter Schema-Evolution und klar definierten Integrationsgrenzen

What we did

Konzeption und Umsetzung event-getriebener Integrationslogik mit Kafka, Avro und Quarkus inklusive GitOps-Deployment, Monitoring und Betriebsbegleitung

Main tools we used

Kafka, Avro, Quarkus, Java, OpenAPI, GitHub Actions, ArgoCD, OpenShift

Aufgaben

Analyse der fachlichen Anforderungen und enge Abstimmung mit Stakeholdern zur Definition der Integrationsziele und Datenflüsse
Identifikation und Bewertung von Quell- und Zielsystemen für event-getriebene Integrationen
Konzeption der Topic-Architektur, Partitionierungsstrategie und Datenflussmodellierung
Design und Verwaltung von Avro-Schemas inklusive Schema-Registry und kontrollierter Schema-Evolution
Implementierung asynchroner Integrationslogik und Kafka-basierter Producer- und Consumer-Services mit Quarkus
Definition und Pflege von API-Kontrakten mittels OpenAPI für synchrone Schnittstellenanbindungen
Aufbau robuster Fehlerbehandlung mit Dead-Letter-Queues, Retry-Mechanismen und Nachvollziehbarkeit im Datenfluss
Implementierung von Authentifizierung und Autorisierung mittels OIDC für sichere Service-Kommunikation
Anbindung an bestehende Backend- und Drittsysteme über REST APIs für hybride Integrationsszenarien
Systematisches Testing der Integrationslogik inklusive Contract-Tests und End-to-End-Validierung
Containerisierung und Deployment der Services auf OpenShift mit Kustomize für umgebungsspezifische Konfiguration
Aufbau und Wartung der CI/CD-Pipelines mit GitHub Actions und GitOps-basiertem Deployment über ArgoCD
Einrichtung von Monitoring, Logging und Alerting zur Überwachung der Kafka-Cluster-Gesundheit und Datenfluss-Performance
Iterative Optimierung der Integrationslandschaft basierend auf Betriebserfahrungen und Stakeholder-Feedback
Umfassende Dokumentation der Architektur, Betriebsprozesse und Wissenstransfer an interne Teams

Technologien

Kafka Avro Quarkus Java OIDC OpenAPI GitHub Actions ArgoCD Kustomize OpenShift