Machine-Learning-Modelle umsetzen: KI in der Praxis

Künstliche Intelligenz (KI) ist längst vom Hype zur Wirklichkeit geworden. Wir arbeiten agil an konkreten Anwendungen. Unser Experte Ertugrul erklärt, wie seine Abteilung Machine-Learning-Modelle für unterschiedlichste Bereiche bereitstellt.

KI sorgt in immer mehr Wirtschaftssektoren für Wachstumschancen. Dahinter stehen IT-Profis wie Ertugrul, der bei uns in Frankfurt im Bereich Data Analytics arbeitet. Denn auch im Banking wächst die Zahl der Anwendungsmöglichkeiten ständig – vom Risiko-Management bis zu Business-Prozessen. Ertugrul beschäftigt sich als Manager des Machine Learning Engineering Teams mit jener wichtigen Unterklasse des weiten KI-Felds, die hinter vielen der aktuellen Innovationen steckt – eben Machine Learning (ML). Das beinhaltet Entwicklung, Training und Deployment von selbstlernenden Modellen, die vielfältige Aufgaben wesentlich effizienter erledigen als Menschen. ML erleichtert die Arbeit, doch umso anspruchsvoller ist die technische Umsetzung, die Ertugrul mit unseren 15 Kollegen*innen betreut. Ihre Lösungen werden von unserer Muttergesellschaft in den Niederlanden in Deutschland, aber auch in anderen Ländern eingesetzt.

Unterschiedliche Rollen, ein Ziel

Ertugrul beschreibt seine Mission so: „Aus Daten Informationen und Mehrwert extrahieren – das ist mehr oder weniger, was wir tun.“ Dabei werden die Arbeitsbereiche entlang des Produktionsprozesses aufgeteilt. „Es gibt mehrere wichtige Rollen bei ML. Da sind zunächst die Customer Journey Experten (CJE), die das Business-Problem strukturieren und die Verbindung zum technischen Team herstellen. Als nächstes werden die Data Scientists aktiv, die unsere Modelle entwickeln. Die Aufgabe der ML Engineers ist es dann, diese Modelle für die Produktion vorzubereiten. Außerdem sind ITEngineers nötig. Sie betreuen die Modelle im Betrieb.“ Als ML Engineer arbeitet Ertugrul also in der Mitte dieses Workflows. Sein Team kümmert sich um Anwendungen wie Kundeninteraktionen (Transaktionen, Segmentierung), Kundendialog (Virtual Assistants) oder Preisfindung. Zur Veranschaulichung erzählt Ertugrul von einem aktuellen Projekt zur Informationsextraktion.

Antragsbearbeitung 2.0

Die Problemstellung: Bei Kreditanfragen für einen Kauf einer Immobilie reichen Kunden Papierunterlagen ein. Deren Bearbeitung soll automatisiert werden. „Wir haben es mit semi-strukturierten Daten zu tun: Die Dokumente enthalten denselben Inhalt, aber in unterschiedlicher Form“, erklärt Ertugrul. Ein Beispiel wären Lohnbescheinigungen, aus denen Informationen wie etwa Adressen extrahiert werden. Durch unsere Lösung müssen Bearbeiter nur noch prüfen, ob die Information korrekt ist, ohne selbst Daten einzugeben. In einer weiteren Ausbaustufe soll diese Überprüfung ebenfalls automatisiert werden. Für dieses Projekt verwendet Ertugrul Open Source Tools wie eine OCR-Texterfassung. Das ML-Modell setzt darauf auf, um beispielsweise Adressfelder zu identifizieren und auszulesen. Ertugruls Team muss das dem Modell allerdings erst beibringen: „Wir sind die Trainer. Für das Training müssen wir aber Beispiele zur Verfügung stellen, also Trainingsdaten.“ Das nötige Anwendungswissen wird von Business-Subject-Matter-Experten eingebracht – also von Fachleuten aus der Geschäftspraxis, die alle anfallenden Vorgänge von A bis Z kennen. Mit ihrem Input können die Trainingsdokumente für das Modell „etikettiert“ werden. In einem iterativen Prozess mit Feedbackschleifen wird das Modell dann optimiert.

Modelle und Sprachen

Hier stellt sich die Frage, wie die Modelle eigentlich beschaffen sind. Ertugrul erklärt: „Die Modelle entstehen aus Daten und Code. Grundsätzlich werden Modelle meistens in der Sprache Python entwickelt. Dabei müssen wir die Versionsverwaltung des Codes und der Daten beachten, sowie einschlägige Softwareprinzipien.“ Ergebnisse sollten schließlich stets reproduzierbar sein. Das „Versioning“ wird wichtig, wenn Modelle um neue Features ergänzt oder Fehler korrigiert werden. „Wir verwenden nicht sechs Monate auf die Entwicklung und präsentieren dann die Software. Vielmehr entwickeln wir iterativ: Wir durchlaufen ständig neue Versionen“, erklärt Ertugrul. „Alle zwei oder drei Wochen führen wir dann neue Features und Versionen ein“. Bei jedem Projekt entstehen neue Templates, die typische paradigmatische Grundlagen befolgen (z.B. objektorientiert, Test-Driven / TDD). Ertugrul präferiert dabei Python Packages, in denen Modelle auch im Produktionsumfeld laufen können, gegenüber Alternativen wie das Schreiben von Skripts in Jupyter Notebook.

Agile Arbeitsweise

Bei der Entwicklung kommen also die agilen Prinzipien voll zum Tragen. Das gilt auch für die breit gefächerte Teamzusammensetzung. Die Modelle werden mit Data Scientists, Engineers und den Business-Experten entwickelt, zu denen auch Fachleute für die Customer Journey gehören. „In der Entwicklungsphase sind darüber hinaus auch Kenntnisse in Java-Virtual-Machine-Sprachen (JVM) wie Java oder Scala gefragt. Das ist nötig, weil die Tech-Stacks von Unternehmen wie etwa der ING darauf basieren“, erklärt Ertugrul. Und die Lücke zwischen Python und dem JVM-Kosmos muss von den Engineers geschlossen werden. Bei der Produktions­bereitstellung werden CI/CD-Pipelines verwendet (Continuous Integration/Continuous Deployment). Solche Prozessstrukturen stellen sicher, dass bei jeder Feature-Ergänzung automatisiert produktionsbereiter Code generiert wird. Zudem sind Kenntnisse in API-Design, Microservices und Containers notwendig. „Microservices stellen eine Art Insel dar, in der wir unsere Applikation isoliert bereitstellen“, ergänzt Ertugrul. Microservices fungieren somit gewissermaßen als Python-„Inseln“ im Java-„Meer“ der Unternehmens-IT, mit APIs als Schnittstellen.

Entscheidend ist der Skill-Mix

Das ML-Feld ist sehr komplex und lässt sich in jeder Dimension beliebig vertiefen. „Kaum ein IT-Profi hat all diese Kenntnisse, so jemand wäre eine Art ‚Unicorn‘. Deshalb achten wir beim Recruiting darauf, dass die Leute sich zwar gut in ML auskennen, aber in ein bis zwei Themen spezialisierte Experten sind“, sagt Ertugrul. Dabei darf auch der Maintenance-Aspekt nicht vernachlässigt werden (Application Monitoring, Model Monitoring). „Hier sind auch kommunikative Skills gefragt: Wir müssen den IT-Engineers erklären, was sie beachten müssen“, führt Ertugrul aus. Das betrifft auch die Verhaltensweise der Modelle. Es kommt nämlich vor, dass sich Variablen mit der Zeit verändern – das Stichwort lautet „Data Drift“. Beispielsweise könnte das Modell plötzlich anfangen, falsche Datentypen zu identifizieren. Dann wird ein Retraining unter Produktionsbedingungen nötig, einschließlich A/B-Testing.

Vielfältige Anwendungen

Die Herausforderungen der Umsetzung werden schnell klar, wenn man sich unsere internationale Aufstellung vor Augen führt. „Die erwähnte Immobilienfinanzierungs-Applikation beruht auf unterschiedlichen Kriterien, wenn sie in Rumänien statt in den Niederlanden zum Einsatz kommt – u.a. wegen der Sprache,“ erklärt Ertugrul. „Wir entwickeln aber auch noch viele andere Projekte. Etwa zur Dokumentenklassifikation. Hierbei stützen wir uns auf fastText, eine Open-Source-Library von Facebook, die weit über 100 Sprachen unterstützt. Unser Tool erreicht eine Genauigkeit von 88,5%.“ Für diese Python-Applikation wurde ein Java-Wrapper inklusive API entwickelt. Im Application Server können dann neue Anwendungen trainiert werden. Anleitungen erklären die Etikettierung der Trainingsdokumente – dadurch entfällt der Arbeitsschritt der Data Scientists. Ein anderes Modell kategorisiert Kontotransaktionen. Es läuft bereits in Rumänien und wird gerade in Luxemburg ausgerollt. ML kommt außerdem im Bereich „Orchestration“ zum Einsatz. Hier wird durch KI-gestützte Segmentierung entschieden, welchen Kunden welche Marketing-Banner angezeigt werden. ML hilft auch bei der Preisfindung: Zinsraten werden je nach erwartbaren Volumen- und Margenänderungen angepasst. Die Sensitivität einzelner Preispunkte wird dabei durch die KI ermittelt.  

Hürden und Lösungen

Die innovative Technologie wirft naturgemäß auch ungelöste Fragen auf. Ein Punkt auf der Agenda ist die Migration in die Cloud, die im Banksektor größtenteils noch bevorsteht. Dazu kommt das Thema „Explainable AI“: Insbesondere zur Klärung ethischer Aspekte wird es zukünftig notwendig, die „Black Box“-KI durch nachvollziehbare Modelle bewertbar zu machen. Insgesamt, so Ertugrul, befindet sich das Feld in „permanenter Transformation“. Und hier hilft nur gezielte Investition in Personal und Skills: „Es kommt nicht auf die Technologie an, sondern auf die Menschen.“ Wir bei der ING haben deshalb eine Analytics Academy eingerichtet, die unsere Mitarbeiter*innen aus allen Bereichen beim Erwerb des nötigen Wissens unterstützt.

Entwicklungspotenzial bei der ING

Analytics und ML – für Ertugrul sind das besonders faszinierende IT-Themen. Er arbeitet tagtäglich bei uns daran, Erkenntnisse aus Forschung und Open Source Communities in der Business-Realität umzusetzen. Durch großzügige Bildungsbudgets unterstützen wir die fachliche Entwicklung der Mitarbeiter*innen und ermöglichen agiles Arbeiten – für ML-Projekte sind das wichtige Erfolgsfaktoren. Bei uns ist ML aber nur ein forderndes IT-Thema unter vielen.

Neugierig geworden?

Jetzt unsere IT-Jobs entdecken

Zurück nach oben
Zuhören