AI pozwala nie tylko ograniczać ryzyko, lecz także na nim zarabiać
O tym, jak zmienia się mapa ryzyk w ubezpieczeniach, jaką rolę odgrywają dane i sztuczna inteligencja oraz dlaczego bez strategii i „wyjaśnialnych” (explainable) modeli AI trudno dziś myśleć o rozwoju sektora, mówią Michał Żelazowski, dyrektor sektora bankowego i usług finansowych w Sii Polska, oraz Grzegorz Pochopień, ekspert ds. sztucznej inteligencji i senior project manager w Sii Polska.
Sektor ubezpieczeniowy mierzy się dziś z bezprecedensową zmiennością. Na ile temat danych i sztucznej inteligencji jest dla niego kluczowy?
Michał Żelazowski: Jesteśmy w punkcie zwrotnym. Widzimy jednocześnie dwa bardzo silne zjawiska. Z jednej strony pojawia się zupełnie nowa mapa ryzyk, znacznie bardziej złożona i dynamiczna niż jeszcze kilka lat temu. Z drugiej strony, mamy ogromny napływ danych z wielu źródeł. Nasza teza jest taka, że jeśli ubezpieczyciele nauczą się mądrze wykorzystywać dane, przy wsparciu sztucznej inteligencji i w ramach regulacji, to nie tylko ograniczą ryzyko, ale będą w stanie budować na nim przewagę konkurencyjną, a nawet dzięki temu zarabiać.
Zacznijmy więc od ryzyka. Co się zmieniło?
Michał Żelazowski: Zmieniło się bardzo dużo. Dziś możemy mówić o czterech głównych grupach nowych ryzyk, które istotnie wpływają na sektor.
Po pierwsze, ryzyka geopolityczne. Konflikty zbrojne, napięcia międzynarodowe, zaburzenia w łańcuchach dostaw. Widzimy to bardzo wyraźnie w ubezpieczeniach transportowych i logistycznych, są np. problemy z ruchem statków cargo w różnych regionach świata. Po drugie, ryzyka klimatyczne. Katastrofy naturalne stają się coraz częstsze i mniej przewidywalne. Powodzie, susze, huragany przekładają się bezpośrednio na wzrost szkodowości. Raporty ekspertów mówią nawet o wzrostach rzędu 15‒20 proc. rocznie w niektórych segmentach. Trzecią grupę tworzą ryzyka demograficzne: starzenie się społeczeństw, wydłużanie życia, ale też rosnąca niestabilność zatrudnienia i rozwój gig economy. I wreszcie czwarty obszar ‒ cyberbezpieczeństwo. Skala ataków rośnie lawinowo. Mówimy o stratach szacowanych nawet na ok. 100 mld euro rocznie. To już nie jest niszowy problem, tylko jedno z kluczowych ryzyk systemowych.
Jednocześnie mamy do czynienia z prawdziwym zalewem danych…
Michał Żelazowski: Dokładnie. Dane napływają z internetu rzeczy, telematyki, systemów transakcyjnych, a nawet ‒ w ograniczonym zakresie ‒ z mediów społecznościowych. To tworzy zupełnie nowe możliwości. Przykładowo: możemy analizować zachowanie kierowcy, przewidywać ryzyko szkody, monitorować stan budynku i reagować, zanim dojdzie do awarii.
Kluczowe jest jednak to, żeby te dane wykorzystać w sposób uporządkowany i zgodny z regulacjami.
Jak zatem wygląda dziś wykorzystanie AI w praktyce?
Grzegorz Pochopień: Widzimy już pierwsze bardzo konkretne wdrożenia. Najczęściej zaczyna się od prostszych przypadków użycia, które szybko przynoszą wartość. To są m.in. chatboty dla klientów pomagające zrozumieć ofertę oraz dla doradców, które uzupełniają ich wiedzę w czasie rzeczywistym.
Mamy też automatyczną likwidację szkód i coraz skuteczniejsze wykrywanie fraudów. Te rozwiązania już działają i ‒ co ważne ‒ budują zaufanie organizacji do AI. Ale to dopiero pierwszy etap. Teraz jest dobry moment, żeby zrobić kolejny krok.
Jaki jest poziom dojrzałości sektora w kontekście AI i wykorzystania danych?
Michał Żelazowski: To jest dość złożony obraz. Technologicznie jesteśmy zaawansowani, infrastruktura chmurowa jest wdrożona i akceptowana regulacyjnie. Na poziomie biznesowym jesteśmy w połowie drogi, wiele firm nie ma jeszcze spójnej strategii AI. Regulacyjnie również jesteśmy w trakcie adaptacji, przepisy już są, ale trwa proces ich pełnego zrozumienia.
Największym wyzwaniem jest jednak czynnik ludzki. Brakuje kompetencji, pojawiają się obawy o miejsca pracy, a jednocześnie rośnie potrzeba przeskalowania umiejętności.
Jak podejść do wdrażania AI, żeby uniknąć błędów?
Grzegorz Pochopień: Kluczowe są dwie rzeczy. Po pierwsze, dobry business case. Zawsze zaczynamy od pytania: po co to robimy i jaka jest wartość biznesowa? Próby budowania „uniwersalnych platform danych” bez konkretnego celu często kończą się porażką ‒ powstaje coś, co żartobliwie nazywamy „uniwersalnym bagnem danych”.
Po drugie ‒ wiarygodność i „wyjaśnialność” modeli, czyli explainable AI. W sektorze regulowanym nie wystarczy powiedzieć: „Tak wyszło z algorytmu”. Trzeba umieć wyjaśnić, dlaczego np. składka wzrosła o 200 proc. To jest kluczowe zarówno dla regulatora, jak i dla klienta.
Gdzie AI może przynieść największą wartość?
Grzegorz Pochopień: Wskażę tu trzy obszary. Pierwszym jest agentowe AI. Wyobraźmy sobie agenta, który zarządza retencją ‒ wie, kiedy klientowi kończy się polisa, kontaktuje się z nim, odpowiada na pytania, przypomina o ofercie i personalizuje komunikację. Albo inny przykład: asystent dla doradcy słuchający rozmowy sprzedażowej i w czasie rzeczywistym podpowiadający argumenty, np. dotyczące przewagi oferty nad konkurencją.
Drugi obszar to strategia sprzedaży i targetowanie. AI może analizować dane historyczne, sezonowość, efekty szkoleń i na tej podstawie proponować cele sprzedażowe dla poszczególnych regionów, optymalizować bonusy czy sugerować zmiany marż.
Trzeci obszar to aktuariat. Dzięki modelom takim jak uplift modeling czy reinforcement learning możemy wyjść poza klasyczne podejście do ryzyka. Uwzględniamy nie tylko prawdopodobieństwo szkody, lecz także np. ryzyko odejścia klienta i jego wrażliwość na cenę.
W jakich ramach regulacyjnych to wszystko się odbywa?
Michał Żelazowski: Kluczowe znaczenie dla sektora ubezpieczeniowego mają dziś dwie regulacje, które w praktyce wyznaczają ramy wykorzystania nowych technologii. Pierwszą z nich jest DORA, czyli rozporządzenie dotyczące odporności cyfrowej sektora finansowego. Ono już obowiązuje i w istotny sposób wzmacnia bezpieczeństwo operacyjne instytucji, zwłaszcza w kontekście rosnących zagrożeń cybernetycznych.
Drugą regulacją jest AI Act, wprowadzający kompleksowe podejście do wykorzystania sztucznej inteligencji w UE. Kluczowym elementem tego aktu jest podział systemów AI według poziomu ryzyka. W przypadku sektora ubezpieczeniowego ma to szczególne znaczenie, ponieważ wiele zastosowań, takich jak underwriting czy ustalanie składek, kwalifikuje się jako obszary wysokiego ryzyka.
Co istotne, AI Act wskazuje również obszary, które są całkowicie niedozwolone. Mówimy tu m.in. o scoringu społecznym czy wykorzystywaniu emocji klienta do manipulowania ofertą.
Jaka jest rola partnerów technologicznych we wdrażaniu AI?
Michał Żelazowski: Rola partnerów technologicznych jest dziś kluczowa, ponieważ mówimy o procesie, który obejmuje cały łańcuch wartości, od koncepcji aż do wdrożenia, czyli podejściu end-to-end.
Zaczynamy zawsze od solidnego business case’u, czyli zrozumienia, jaki problem chcemy rozwiązać i jaką wartość biznesową ma przynieść dane rozwiązanie. Następnie przechodzimy do analizy danych ‒ zarówno tych, które organizacja już ma, jak i tych, które można legalnie pozyskać z zewnątrz. Kolejnym krokiem jest uporządkowanie i przygotowanie danych. W praktyce bardzo często oznacza to wdrożenie hurtowni danych, rozwiązań klasy Master Data Management czy procesów integracyjnych, które pozwalają nadać danym spójność i jakość.
Rola partnerów technologicznych we wdrażaniu AI jest dziś kluczowa, ponieważ mówimy o procesie, który obejmuje cały łańcuch wartości, od koncepcji aż po wdrożenie, czyli podejściu end-to-end – mówił Michał Żelazowski
Dopiero na tak przygotowanym fundamencie można budować i wdrażać modele analityczne oraz rozwiązania oparte na sztucznej inteligencji, które realnie wspierają biznes.
Grzegorz Pochopień: Dalej zaś mamy cały proces analityczny: eksplorację danych, dobór cech, parametrów, modeli, ich kalibrację i wdrożenie. Klienci coraz częściej oczekują kompleksowego wsparcia ‒ od pomysłu do produkcyjnego wdrożenia.
Czy zatem dostęp do danych to bardziej szansa czy zagrożenie?
Grzegorz Pochopień: To zdecydowanie jedno i drugie. Dane mogą być dla ubezpieczycieli ogromną szansą, wręcz „oceanem możliwości”, który pozwala lepiej rozumieć klientów, przewidywać ryzyka i budować nowe modele biznesowe. Jednocześnie jednak, jeśli podejdziemy do nich bez odpowiedniej strategii i porządku, bardzo łatwo mogą się zamienić w coś zupełnie przeciwnego ‒ w „bagno danych”, które zamiast wspierać decyzje, utrudnia ich podejmowanie i tworzy chaos w organizacji.
Dlatego jest tak istotne, aby od samego początku budować spójne podejście. Kluczowe są: dobrze przemyślana strategia wykorzystania danych, dbałość o ich jakość i uporządkowanie, a także pełna zgodność z regulacjami. Nie bez znaczenia jest również współpraca z odpowiednimi partnerami technologicznymi, którzy pomagają przejść przez cały proces ‒ od koncepcji do wdrożenia ‒ i zamienić dane w realną wartość biznesową.
Rozmawiał Jacek Pochłopień, not. KR
Partner relacji
Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone.
Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A. Kup licencję.
Wpisz adres e-mail wybranej osoby, a my wyślemy jej bezpłatny dostęp do tego artykułu