„Automate Everything“: CIO Jens Becker über die CI/CD-Strategie der Zurich

Im Interview spricht Chief Information Officer (CIO) Jens Becker über die IT-Strategie der Zurich Gruppe Deutschland.

Typ:
Blogartikel
Rubrik:
Analytik & IT
Themen:
IT IT-Strategie Cloud
„Automate Everything“: CIO Jens Becker über die CI/CD-Strategie der Zurich

Die Zurich Gruppe Deutschland ist auf dem Weg zur vollständigen Migration in die Cloud. Chief Information Officer (CIO) Jens Becker spricht im Interview über die Herausforderungen und Chancen dieses ambitionierten Vorhabens. Dabei beleuchtet er, wie Automatisierung durch CI/CD-Prozesse (Continuous Integration/Continuous Deployment) die Effizienz steigert, welche Skills für den Cloud-Umbau nötig sind und wie Zurich die IT-Teams darauf vorbereitet. Der CIO erklärt weiter, wie moderne IT-Lösungen nicht nur Kosten senken, sondern auch die Kundenerfahrung verbessern können. Zudem beschreibt er, wie Open Source als Schlüsseltechnologie in einer regulierten Branche genutzt werden kann.

Herr Becker, die Zurich Gruppe Deutschland will bis 2026 vollständig in die Cloud migrieren. Werden Sie das Ziel erreichen?

Yes, but. Ein Ziel unserer Cloud-Migration ist, zügig eine leistungs- und zukunftsfähige Computer- und Storage-Plattform für das Business aufzubauen. Geschwindigkeit steht jedoch nicht als Ziel allein, sondern in Balance mit dem Rückbau technischer Schulden und der Weiterentwicklung der IT-Landschaft. Da gilt auch schonmal „slow down to speed up“. Um mehr technische Schulden zu tilgen, haben wir uns entschieden, die Jahreszahl auf Ende 2027 anzupassen.

Sie sprechen in Ihrer Keynote beim Messekongress IT für Versicherungen über die fundamentalen Veränderungen im IT Operating Model durch die Cloud-Migration. Welche spezifischen Herausforderungen sehen Sie bei der Umstellung von On-Premises auf eine Cloud-basierte Infrastruktur in der Versicherungsbranche?

Die größte Herausforderung besteht darin, die nötigen Skills für Cloud-Ops-Engineering aufzubauen, um insbesondere Automatisierung und IT-Sicherheit voranzutreiben. Der größte Fehler wäre, die Nutzung der bisherigen Datacenter einfach in die Cloud zu transferieren. „Automate Everything“, also skriptgesteuerte Deployments über CI/CD Pipelines (Continuous Integration und Continuous Deployment) und ein „ZeroTrust“-Sicherheitskonzept sind essenziell. Hinzu kommt, dass wir die interne Fertigungstiefe für strategische Zielsysteme erhöhen und weniger Tätigkeiten in der Entwicklung und Infrastruktur auslagern als früher.

Und wie geht die Zurich Gruppe Deutschland konkret mit diesen Herausforderungen um?

Wir entwickeln die Organisation anhand von Objectives und Key Results – der OKR-Methode – kontinuierlich in allen Dimensionen weiter. Zur Fachkräftesicherung bilden wir mit regionalen Fachhochschulen sowie dualer betrieblicher Ausbildung Cloud Ops Engineers aus und stärken die betriebliche Fortbildung mit einem breiten und differenzierten Schulungsangebot. Zudem haben wir unser „Cloud Center of Excellence“ als Plattformteam und Treiber personell aufgestockt. Mit einer klaren Vision für Continuous Integration and Deployment (CI/CD) geben wir das Automatisierungsziel für alle Delivery Teams vor.

Sie betonen die Bedeutung von CI/CD Automation in Ihrem Vortrag. Wie hat die Implementierung dieser Technologien die Effizienz und Flexibilität Ihrer IT-Prozesse verändert?

CI/CD ist für mich die Industrialisierung in der Softwareentwicklung – die Automatisierung vom Code Commit bis zur Provisionierung in Test und Produktionsinstanzen. Ich verstehe Softwareentwicklung in erster Linie als kreativen Übersetzungs- und Problemlösungsprozess von einer Geschäftsidee zum Code. Es braucht anschließend viele administrative Schritte, die meine Entwickler wertvolle Zeit kosten: Code in GitHub einloggen, compilieren/builden, ins Repository einchecken, auf Test deployen, Unit Tests laufen lassen, auf Integrations- und User Acceptance Umgebungen stagen etc. Zeit, die für kreative Wertschöpfung, Problemlösung und das Schreiben von gutem Code fehlt bzw. durch CI/CD gewonnen wird.

Welche Rolle spielt die kontinuierliche Schulung Ihrer IT-Teams?

Wie oben skizziert, eine ganz zentrale! Nehmen Sie beispielsweise mich als Repräsentanten unseres Altersdurchschnitts. Die aktuellen Cloud-Technologien waren vor 20 Jahren, in meiner Uni Zeit, noch kein Thema. Künstliche Intelligenz wurde an neuronalen Netzen als ein theoretisches Konstrukt erklärt. Schauen wir auf das Mooresche Gesetz, das die technologische Entwicklung als nahezu exponentiell beschreibt. Wir müssen generell und insbesondere in der Technologie lebenslang lernen. Mit Inhouse-Tech-Konferenzen wecken wir Neugierde und bieten einen Blick über den Tellerrand. Unsere Spezialisten sind regelmäßig auf Konferenzen und Workshops unterwegs. Es besteht ein breites Online-Lernangebot, ergänzt durch Classroom Schulungen und „Training on the Job“. Mit der Uni Köln haben wir ein eigenes Schulungsprogramm für „Digital Design“ entwickelt. Klingt viel, braucht aber weiter Aufmerksamkeit, die richtigen Angebote und vor allem Zeit für das Lernen.

Sie haben in einem Gastbeitrag in der Fachzeitschrift „Versicherungswirtschaft“ geschrieben, dass Kosten sparen keine Strategie ist, sondern vielmehr die Schaffung von Mehrwerten im Vordergrund stehen sollte. Wie stellen Sie sicher, dass durch technische Innovationen nicht nur Kosten gesenkt, sondern auch die Kundenerfahrung nachhaltig verbessert wird?

Mir geht es darum, deutlich zu machen, dass ein ganzheitlicher Ansatz hin zu einer modernen IT-Wertschöpfung in effektiver Zusammenarbeit mit den Fachbereichen die IT-Wertschöpfung regelrecht entfesseln kann. Dafür braucht es gute Fähigkeit in der Business-Analyse, Exzellenz in der Entwicklung, Shift Left im Testing, Effizienz durch CI/CD, leistungsfähige Cloud Infrastruktur as Code und Predictive Maintenance im Betrieb. Ein solcher Ansatz liefert viel substanziellere Ergebnisse als jede kurzfristige Kostenoptimierung und dafür muss man in den Aufbau dieser Fähigkeiten investieren.

Im Kontext Ihrer Strategie zur Nutzung von Open Source betonen Sie die kulturelle Weiterentwicklung und die Herausforderungen der Regulatorik. Wie gelingt es Ihnen, in einem stark regulierten Umfeld wie der Versicherungsbranche, die Vorteile von Open Source zu nutzen, ohne regulatorische Risiken einzugehen?

Open Souce verstehe ich nicht nur als Lizenzmodell, sondern als Geisteshaltung, meinen Code firmenintern oder auch extern offen zu legen und Feedback dazu willkommen zu heißen. Das fängt beim Peer Programming an, bei dem man sich und sein Arbeitsergebnis gewissermaßen „entblößt“. Neben dem Vertrauen in eine respektvolle Feedbackkultur der Peers setzt es ein Verständnis dafür voraus, dass kollektive Intelligenz zu besseren Ergebnissen führt. Viele der Cloud-Technologien, wie Kubernetes und Red Hat OpenShift, sind Open Source. OpenShift nutzen wir als Abstraktionslayer auf AWS und Microsoft Azure, d.h. unsere Anwendungen in OpenShift Container können auf beiden Cloud-Plattformen laufen. Das ist wesentlicher Teil unsere Antwort auf die von der Finanzdienstleistungsaufsicht (BaFin) geforderte Exit-Strategie, also die Vermeidung einer zu harten Abhängigkeit von einem Cloud-Anbieter. OpenSource hilft uns folglich sogar, damit regulatorische Anforderungen zu erfüllen.


Wir freuen uns auf die Keynote „Automate Everything – Wie die Cloud-Migration das IT Operating Model grundlegend verändert“ von Jens Becker am ersten Tag des Messekongresses IT für Versicherungen, der am 26. und 27. November 2024 stattfindet.

Themen Tags