Experten

KI-Anwendungen in der Versicherungsbranche

Sebastian Weber, Marketing Data Scientist Allianz Österreich, über KI-Anwendungen in der Versicherungsbranche

(Wien, 16.1.2023) Experten-Interview mit Sebastian Weber, MA, Marketing Data Scientist Allianz Österreich, über die vielfältigen Einsatzgebiete von KI-Anwendungen in der Versicherungsbranche (Foto: © Sebastian Weber).

AIHubYou: Herzlich willkommen! Sebastian Weber, Data Scientist in einem Versicherungsunternehmen und Experte auf dem Gebiet der Advanced Analytics unter Anwendung von Python Algorithmen. Herr Weber, wenn Sie sich bitte kurz vorstellen.

Sebastian Weber: Sehr gerne. Mein Name ist Sebastian Weber. Ich komme aus der Nähe von Düsseldorf in Deutschland und arbeite als Marketing Data Scientist bei der Allianz in Österreich und bin dort für zwei größere Themenfelder verantwortlich: auf der einen Seite bin ich verantwortlich für Reportings im Bereich von Kunden- und Marktdaten und auf der anderen Seite entwickle ich Vorhersagemodelle die Kundenverhalten vorhersagen, um im Marketing bessere, präzisere Entscheidungen treffen zu können. Das wirklich coole an dem Job ist, dass ich immer etwas Neues lerne, mit verschiedensten Datensätzen arbeite die aus Versicherungssicht spannend sind, wie beispielsweise Schadensdatensätze, Storni, Kaufentscheidungen und Marktvergleiche. Und dafür nutze ich sehr häufig künstliche Intelligenz, die ich mit Python programmiere und damit auch immer mit den neuesten Technologien arbeiten kann.

AIHubYou: Welche Tipps und Learnings können Sie unserer Community mitteilen?

Sebastian Weber: Ich glaube grundsätzlich, dass sich im Bereich von Data Science, künstliche Intelligenz, einfach wahnsinnig viel tut, es ist einfach ein Feld, das sich fortlaufend weiterentwickelt. Und da ist es, glaube ich, unabdingbar, als jemand der sich mit den Themen der künstlichen Intelligenz beschäftigt, dass man sich ständig weiterbildet. Also da sind natürlich grundlegende Ressourcen zu nennen wie Bücher, Kurse, Studien, Experteninterviews auch. Vieles darüber ist sehr gut im Internet zu finden. Es gibt hervorragende Kurse die von Universitäten bereitgestellt werden aber auch von einzelnen Experten und Dozenten. Ich glaube dass man sich fast nichts übers Internet so gut selber beibringen kann wie das Programmieren, wenn man wirklich daran interessiert ist sich mit den Themen tiefgreifender zu beschäftigen. Was ich aber vor allem empfehlen kann ist sich wirklich gut zu vernetzen: da wäre vielleicht der Austausch zu suchen zu Communitys, vielleicht gerade zu lokalen Communitys. Da wäre in Wien z.B. die Vienna Data Science Group zu nennen, die seit vielen, vielen Jahren hervorragende Events organisiert mit tollen tollen Speakern; oder aber auch einfach vernetzt zu bleiben mit anderen Data Science Praktizierenden, wobei man sehr, sehr gute neue Ideen generieren kann, das eigene Denken hinterfragt und einfach den Horizont ungemein erweitern kann.

AIHubYou: Wie glauben Sie, dass sich das Thema in Zukunft entwickeln wird?

Sebastian Weber: Ich denke, dass Menschen wahrscheinlich AI noch wesentlich bewusster einsetzen werden, um sich selber dadurch deutliche Produktivitätsvorteile zu sichern. Also durch simple Interfaces und auch Low Code-Lösungen wird AI sicherlich vollständig in der Breite der Gesellschaft ankommen und das wirklich ganz bewusst. Also ich kann mir vorstellen, dass im öffentlichen wie auch im privaten Raum sehr zentrale Prozesse automatisiert werden und für Experten wird künstliche Intelligenz einfach auch als Unterstützung dienen. Zum Beispiel durch automatisierte Dokumentenverarbeitung aber auch in sehr kreativen Prozessen, wie der Bildbearbeitung. So könnte ich mir vorstellen, dass sich unter Umständen einige Berufe viel mehr entwickeln werden, wandeln werden von einem sehr handwerklichen „Was“ hin zu einem eher taktisch-strategischen und hoffentlich auch gesellschaftsdienlichem „Wie“.

AIHubYou: Sie nehmen die Rolle des Data Scientists in Ihrem beruflichen Umfeld ein. Welche Rolle spielt Data Science derzeit in der Versicherungsbranche?

Sebastian Weber: Also ich glaube hier sind viele, viele, viele klassische Anwendungsbereiche zu nennen: z.B. im Bereich Service- und Schadensmanagement können wir Kunden ansprechen, automatisiert per Bots. Man kann auch automatische Dokumentenverarbeitung einbringen. Im Pricing zum Beispiel, denken wir an intelligentes Pricing, per Statistik und AI, wie es ja auch schon großflächig passiert. Bei Kundenanalysen können wir natürlich vorhersagen was für nächste Transaktionen ein Kunde unter Umständen tätigen wird oder auch Kündigungen vorhersagen. Im Bereich Fraud wäre an Mustererkennung bei Betrugsfällen zu denken und auch im Portfoliomanagement können wir an intelligentes Portfoliomanagement denken, wo per AI Asset-Zusammenstellungen optimiert werden. Also es gibt insgesamt in der Versicherungsbranche viele sehr zeitintensive Prozesse. Es gibt bürokratische, regulatorische Herausforderungen und natürlich auch komplexe wirtschaftliche Entscheidungen, welche AI zu einem sehr attraktiven Tool machen, das man breitflächig nutzen kann. Und es ist gerade im Marketing so, dass wir mit AI Kundenverhalten besser verstehen können und für das Targeting vorbereiten können. Und Prozesse wie Kundenwertanalysen, beispielsweise, gewinnen durch AI natürlich deutlich an Akkuratheit und können auch teil- oder vollautomatisch ausgeführt werden.

AIHubYou: Thema Fachkräftemangel: Lösen selbstlernende Tools, die Analysen automatisiert entwickeln, durchführen und verbessern, zukünftig Data Scientists ab?

Sebastian Weber: Also sicherlich werden Teilbereiche der Arbeit von Data Scientists durch AI automatisiert. Das ist aber auch heute schon der Fall. Wenn wir uns beispielsweise die Datenaufbereitung anschauen kann er ja auch heute schon beim Bereinigen der Daten helfen und beim Clustern der Daten. Das muss ein Data Scientist schon heutzutage nicht mehr alles selber händisch machen. Auch können beispielsweise Tools, wie das im letzten Jahr 2022 von OpenAI vorgestellte ChatGPT auch ganze Algorithmen letztlich für den Nutzer schreiben oder zumindest einzelne Codeblöcke. Es bleibt aber natürlich trotzdem die Frage: „Wer wendet diese Algorithmen in welcher Form an und wie werden dann auch entsprechende Ergebnisse interpretiert?“ Denn selbst wenn eine Software jetzt voll umfänglich von AI geschrieben würde, muss sie natürlich dann noch in irgendeiner Formen angewendet werden. Und dazu ist es, sag ich mal, mindestens grundsätzlich, dass man grundlegende algebraische, statistische Grundkenntnisse besitzt. Ich denke also, dass ein Data Scientist in seiner Kernfunktion, wie ich sie sehe, als Problemlöser mit tiefgreifendem, technischem, methodischem Wissen immer gefragt sein wird. Bei der Nutzung von AI spielt auch das Vertrauen in entsprechende Algorithmen eine große Rolle und da unterstützt der Data Scientist einfach als jemand der übersetzen kann, der Ergebnisse erklären kann. Und das wird, glaube ich, auch immer so sein. Die Rolle des Data Scientists hat sich immer schon im Wandel befunden. Das ist natürlich auch heute noch so. In Zukunft könnte ich mir vorstellen, dass es noch mehr geht in Richtung eines strategischen Beraters, der vor allem durch sein tiefgründiges Domänenwissen helfen kann, Business relevante end-to-end Software bereitzustellen und in die entsprechende Business-Landschaft zu integrieren.

AIHubYou: Machine Learning, im Speziellen Deep Learning, gilt als Blackbox. Maschinen treffen Entscheidungen, die für den Menschen kaum oder nicht nachvollziehbar sind. Wie begegnet man dieser Herausforderung?

Sebastian Weber: Also wenn Interpretierbarkeit wichtig ist in einem Projekt, dann stehen dem Data Scientist grundsätzlich eine Vielzahl von Werkzeugen zur Verfügung, die dies gewährleisten. Also zum einen können für Projekte mit starkem Fokus auf die Interpretierbarkeit Algorithmen und Prognosemodelle gewählt werden die, sage ich mal, von Natur aus schon gut zu interpretieren und zu visualisieren sind. Man kann hier beispielsweise an Entscheidungsbaum-Modelle denken wo man die einzelnen Äste und Zweige grafisch darstellen kann, um genau zu sehen wie sich ein Modell in welcher Situation entscheidet. Wir haben aber auch sonst bei komplexeren Modellen durchaus die Möglichkeit mit diversen Tools letztlich den Zusammenhang, den Kausalzusammenhang, von Inputs und Outputs herzuleiten und darzustellen. Das schöne dabei ist, dass die meisten dieser Methoden die wir verwenden können modell-agnostisch sind. Das heißt sie funktionieren letztlich für verschiedenste Arten von Modellen sehr, sehr ähnlich. Wir können also einfach verschiedenste Modelle bauen – was auch immer wir brauchen – und können dann im Nachgang diesen Kausalzusammenhang von Inputs und Outputs analysieren. Es ist selbst bei komplexeren Deep Learning Modellen so, dass ein Data Scientist diese Zusammenhänge ableiten kann. Und zwar funktioniert das sowohl global als auch lokal. Das heißt wenn wir beispielsweise Häuserpreise vorhersagen wollten auf Basis der Faktoren der Größe eines Objekts und der Lage eines Objekts dann können wir insgesamt, also global, analysieren welchen Einfluss diese beiden Faktoren Größe und Lage auf den Häuserpreis haben. Wir können das aber auch auf lokaler Ebene, das heißt für jedes einzelne Haus und jede einzelne Prognose, können wir genauer schauen welchen Einfluss diese zwei Faktoren hatten um zu einer gewissen Prognose zu kommen. Und das ist natürlich wirklich sehr charmant um einfach dieses Vertrauen in die Modelle zu wecken: dadurch, dass man jede einzelne Entscheidung erklären kann und natürlich auch hinterfragen kann. Denn ein Modell muss nicht unbedingt so funktionieren wie man sich das vorher vorgestellt hat. Daher gehören aus meiner Sicht reine Black Box-Modelle eher der Vergangenheit an. Es ist aber auch so, dass Data Scientists auch unabhängig von den eigentlichen Prognosemodellen Zusammenhänge und Muster durch explorative grafische Analysen erklären können.

AIHubYou: Vielen Dank, Herr Weber, für das angenehme Interview.

Sebastian Weber: Sehr gerne.

Similar Posts