AI-based Fraud Detection

Helvetia Versicherung Schweiz
AI Fraud Detection Versicherungen

Im Rahmen des Projekts AI-based Fraud Detection unterstützte b-nova die Helvetia Versicherung Schweiz bei der technischen und fachlichen Umsetzung einer automatisierten Betrugserkennung. Im Mittelpunkt standen die Analyse relevanter Datenquellen, die Entwicklung geeigneter Scoring-Modelle und Erkennungslogiken auf Basis von Machine Learning sowie die Vorbereitung einer belastbaren Integration in bestehende Schadenprozesse und Fachsysteme. Ergänzend begleiteten wir die Datenaufbereitung, das systematische Testing und die iterative Optimierung der Erkennungsqualität unter Berücksichtigung von False-Positive-Raten und fachlichen Schwellenwerten.

Biggest challenge

Überführung fachlicher Betrugsmuster in belastbare technische Erkennungslogik bei heterogener Datenqualität und Minimierung von False Positives

What we did

Analyse, Konzeption und Umsetzung einer ML-gestützten Scoring- und Erkennungslösung zur automatisierten Betrugserkennung inkl. Datenaufbereitung, Systemintegration und Betriebsvorbereitung

Main tools we used

Python, Java, Machine Learning, REST, Datenanalyse, OpenShift, Splunk

Aufgaben

Analyse fachlicher Anforderungen und enge Abstimmung mit Stakeholdern zur Definition der Erkennungsziele und Betrugsmuster
Identifikation und Bewertung relevanter Datenquellen aus Schaden-, Vertrags- und Kundensystemen
Datenaufbereitung, Bereinigung und Feature Engineering zur Vorbereitung der Erkennungslogiken
Konzeption und Implementierung von Scoring-Modellen und regelbasierten Erkennungsmechanismen
Entwicklung und Training von Machine-Learning-Modellen zur Anomalieerkennung und Mustererkennung
Aufbau einer reproduzierbaren ML-Pipeline für Modelltraining, Evaluation und Deployment
Integration der Erkennungslösung in bestehende Schadenprozesse, Schnittstellen und Fachsysteme
Anbindung an Drittsysteme und Fachapplikationen über REST APIs zur Echtzeit-Datenabfrage
Systematisches Testing und Validierung der Erkennungsqualität inkl. False-Positive-Analyse
Iterative Optimierung der Schwellenwerte und Scoring-Parameter basierend auf fachlichem Feedback
Einrichtung von Monitoring und Alerting zur Überwachung der Erkennungsperformance im Betrieb
Containerisierung und Deployment der Lösung auf OpenShift für skalierbare Bereitstellung
Aufbau und Wartung der CI/CD-Pipelines mit GitHub Actions für automatisierte Builds und Deployments
Umfassende Dokumentation der Architektur, Erkennungslogiken und Betriebsprozesse
Wissenstransfer und Abstimmung mit Fach- und Entwicklungsteams zur nachhaltigen Verankerung

Technologien

Python Java REST Jupyter / Datenanalyse Machine Learning OpenShift GitHub Actions Splunk SQL / Datenaufbereitung API-Integration