Przejdź do głównej treści

Nadchodzi era data bankingu

Katgoria: IT Solutions / Utworzono: 29 marzec 2017

Nadchodzi era data bankingu

Polska bankowość należy do najbardziej innowacyjnych na świecie. Przelewy realizowane są znacznie szybciej niż np. w Stanach Zjednoczonych czy Francji, a wyniki stress testów dowodzą, że również pod względem bezpieczeństwa nie mamy powodów do narzekania. Jest jednak poważna rysa na tym – wydawałoby się – nieskazitelnym wizerunku: polskie instytucje finansowe w większości nie znają odbiorców swoich usług. Podobnie sprawy mają się na bardziej rozwiniętych rynkach niż nasz. Według Capgemini tylko 37 proc. klientów banków uważa, że te instytucje dobrze rozpoznają ich potrzeby.

REKLAMA
ASSECO KSEF
 

Pewnego razu Adam podjął z banku większą sumę pieniędzy. Minęło zaledwie kilka chwil a w jego skrzynce mailowej wylądowała oferta kredytu. Niemal natychmiast Adam dostał też w tej sprawie od swojego banku SMS-a. Niepotrzebnie. Gdyby bowiem bank znał prawdziwy powód podjęcia większej sumy pieniędzy z konta, wiedziałby, że Adam wyjeżdża na wakacje i wcale nie potrzebuje dodatkowego finansowania. Za to chętnie skorzystałby z dobrego ubezpieczenia turystycznego. Tym samym bank stracił okazję do monetyzacji swoich dodatkowych usług.

To przykład z życia wzięty, ilustrujący etap rozwoju w jakim znajduje się dzisiaj większość polskich banków. Mimo że dane o zainteresowaniach klientów są dziś na wyciągnięcie ręki, a pozyskać je można w ramach obowiązującego prawa i to bez pomocy agencji detektywistycznej. Wystarczy zainwestować w analitykę Big Data.

Wiedza o zarządzaniu danymi i ich monetyzacja jest dziś motorem napędowym rozwoju firm. Z badania przeprowadzonego przez Regalix wynika, że przychody firm, które zdecydowały się na wykorzystanie takiej analityki w działaniach marketingowych wzrosły nawet o ponad 50 proc.

Banki stawiają na Big Data

W rozwiniętych krajach banki rozpoczęły już cyfrową rewolucję. Coraz więcej firm z tego sektora modernizuje infrastrukturę informatyczną, by skutecznie łączyć i analizować dane ze wszystkich przydatnych źródeł. Obranie kierunku na zaawansowaną analitykę cyfrowych informacji to przemyślana strategia rozwoju, która ma swoje uzasadnienie w licznych prognozach i statystykach.

Zdaniem ekspertów, jest to największy krok w historii rozwoju systemu bankowego od czasu wprowadzenia bankowości elektronicznej. Nie chodzi tutaj tylko o rosnącą liczbę danych online, która sięga już 10 zettabajtów. U zarania globalnej sieci, treści w niej publikowane, generowane były przede wszystkim przez wydawców serwisów internetowych. Dziś tworzą je również użytkownicy.

Z raportu „Data Never Sleeps 4.0” wynika, że w ciągu jednej minuty publikują oni 400 godzin materiałów wideo w serwisie YouTube i dzielą się ponad 216 tys. zdjęć na Facebooku. Na serwerach firmy Dropbox w ciągu 60 sekund ląduje ponad 833 tys. nowych plików. Dla banków takie dane to skarbnica wiedzy o klientach. Kluczowa jest ich analiza, to właśnie dzięki niej można lepiej zrozumieć potrzeby klientów i skutecznie kierować do nich przekaz z ofertą. Dane poddane analizie mogą nie tylko przyczynić się do wzrostu sprzedaży produktów finansowych, lecz także przyczynić się do zmiany długofalowej strategii biznesowej.

Bitwa toczy się na dwóch frontach

Według Piotra Prajsnara z Cloud Technologies, firmy data consultingowej i największej w Europie hurtowni danych przetwarzającej informacje o preferencjach i zainteresowaniach internautów, w tej chwili banki zmagają się z przetwarzaniem danych typu first party, czyli tych generowanych wewnętrznie. Stąd inwestycje w infrastrukturę i oprogramowanie, które umożliwiają połączenie w jednym systemie wszystkich przydatnych zbiorów. Analizowanie danych w bankowości ze źródeł zewnętrznych dopiero jednak raczkuje. Zupełnie inaczej niż ma to miejsce np. w branży marketingowej czy e-commerce.

Dane wewnętrzne banku dostępne w firmowych CRM to m.in. historia klienta, jego aktywność w systemie bankowości elektronicznej, aplikacji mobilnej czy też w innych punktach styku z marką (consumer touch point). Przetwarzanie tak licznych informacji po to, by zyskać lepszy profil klienta i udoskonalić komunikację we wszystkich jej kanałach to niemałe wyzwanie. Kolejnym krokiem jest zasilenie systemu danymi na temat interakcji klienta z marką w serwisach społecznościowych czy też jego aktywności w internecie. Tutaj wewnętrze zbiory cyfrowych informacji przestają wystarczać i trzeba sięgnąć po dane zewnętrzne, czyli 3rd party, które umożliwiają stworzenie 360 stopniowego profilu klienta i pomagają dostosować ofertę do jego aktualnych potrzeb i zainteresowań. W tym celu konieczna jest integracja istniejącego, bankowego systemu komputerowego z platformą DMP (data management platform), która dostarcza i analizuje takie dane w czasie rzeczywistym. To właśnie ubogacenie danych wewnętrznych danymi zewnętrznymi, daje dużo większe możliwości analizy potrzeb klientów i dostarczenia im wysoce spersonalizowanej oferty – tłumaczy Piotr Prajsnar, CEO Cloud Technologies.

Jego zdaniem, bitwa toczy się na dwóch frontach. By nie przegrać z konkurencją, zwiększyć przychody i tworzyć nowe, atrakcyjne usługi banki muszą zadbać o właściwy przepływ danych w ich wewnętrznej infrastrukturze, a następnie wzbogacić systemy informatyczne o dostęp do wielkich, nieustrukturyzowanych zbiorów danych, zwanych inaczej Big Data.

Przykładem skutecznych działań na tym pierwszym froncie może poszczycić się HDFC, jeden z największych banków w Indiach. Korzystając z głębokiej analizy historii interakcji z klientami spersonalizował on komunikację w wybranych kanałach, optymalizując tzw. customer experience. Integracja danych z serwisu internetowego banku z systemem zarządzającym bankomatami pozwoliła m.in. zautomatyzować proces wyboru języka, co doprowadziło do redukcji kosztów operacyjnych i skrócenia czasu korzystania z maszyn o 40 proc.

Zrozumieć klienta

O potrzebie wdrożenia analityki Big Data świadczy chociażby badanie przeprowadzone przez Capgemini. Wynika z niego, że tylko 37% klientów banków uznaje, że dobrze rozpoznają one ich potrzeby. Z tego samego badania wynika również, że zaledwie 37% banków posiada jakiekolwiek doświadczenie w obszarze Big Data. Na pytanie, czy to przypadek, Piotr Prajsnar odpowiada jednoznacznie.

Nie sposób poznać odpowiednio klienta bez nowoczesnych rozwiązań analitycznych i dopływu aktualnych danych zewnętrznych typu 3rd party. Wyniki badania zaprezentowane przez Capgemini to nie zbieg okoliczności, ale dosadny obraz rzeczywistości, w której firmy pozbawione odpowiednich narzędzi analitycznych nie są w stanie sprostać oczekiwaniom swoich klientów. Problem nie polega na braku chęci czy zaangażowania, lecz na tym, że tych oczekiwań nie znają. Dlatego coraz więcej banków robi porządek z wewnętrznymi danymi i sięga po usługi z kategorii Big Data as a Service, które umożliwiają optymalizację procesów sprzedażowych np. poprzez szczegółową segmentację klientów – przekonuje Prajsnar.

Za sprawą takiej segmentacji Bank of America zmienił sposób postrzegania swoich klientów, co doprowadziło do zastąpienia wysłużonego sloganu marketingowego. Wcześniejszy zachęcał do wykorzystania hipoteki domu w celu sfinansowania edukacji dzieci. Nowy namawia do wzięcia podobnego kredytu, ale już po to, by realizować swoje osobiste pragnienia: „Use the value of your home to do what you always wanted to do”. W efekcie, współczynnik konwersji wzrósł dziesięciokrotnie.

Prześwietlić klienta

Po analitykę Big Data banki sięgają również w celu usprawnienia procesów scoringowych, skracając je dosłownie do kilku minut. Nie tak dawno temu osoby ubiegające się o kredyt musiały przedstawić w placówce banku tony dokumentów. Dzisiaj całym procesem zarządzają skomplikowane algorytmy, które analizują wiele różnych parametrów. Dlatego kluczowe dla banku jest pozyskiwanie danych o swoim kliencie z wielu odmiennych źródeł, co wymaga włączenia do procesów bankowych systemów klasy DMP.

Z możliwości oferowanych przez analitykę Big Data mogą korzystać dziś nie tylko duże banki, lecz również bankowość spółdzielcza. Nowoczesny scroring w Polsce testuje już m.in. Credit Agricole. Dostarczony przez Blue Media system weryfikuje wiarygodność klienta banku na podstawie informacji dostępnych w serwisach społecznościowych oraz danych behawioralnych, czyli analizy zachowań na stronach sprzedażowych, weryfikacyjnych, a nawet sposobu formatowania danych.

Systemy scoringowe w bankach, które korzystają z zasobów Big Data, dostarczają pogłębioną analizę zdolności kredytowej klientów. Dzieje się tak za sprawą danych pozyskiwanych z różnych źródeł - zapisanych np. w postaci plików cookies - takich jak intencje zakupowe z serwisów e-commerce, czy też profile w mediach społecznościowych. Analiza takiego profilu np. na Facebooku oraz grona znajomych klienta, może pomóc w ocenie jego wiarygodności finansowej i zminimalizować ryzyko związane z udzieleniem pożyczki osobie, która nie będzie miała możliwości jej później spłacić. Jeśli z aktywności internetowej klienta, historii jego decyzji zakupowych czy też podróży zagranicznych wyłania się obraz człowieka, który posiada wystarczające możliwości finansowe, to system wystawiając finalną ocenę bierze te informacje pod uwagę – tłumaczy Maciej Klepacki, ekspert ds. cyfrowej transformacji.

Jego zdaniem banki znajdują się w grupie firm, które jako pierwsze na stałe wdrożą analitykę wielkich, nieustrukturyzowanych zbiorów danych. Za takim scenariuszem przemawiać mają liczne korzyści finansowe oraz walka o rynkową pozycję. Eksperci z firmy Gartner prognozują, że dzięki Big Data do 2020 roku aż 80% procesów biznesowych we wszystkich firmach zostanie zmodernizowanych.

Przemiany, jakie rozpoczęły się za sprawą integracji i analityki dużych zbiorów danych wagą przypominają rewolucję informatyczną, są jednak dużo bardziej dyskretne, a z ich owoców przyjdzie się nam cieszyć dopiero w nachodzących latach – prognozuje Klepacki.

Źródło: Cloud Technologies


Najnowsze wiadomości

Kwantowy przełom w cyberochronie - nadchodząca dekada przepisze zasady szyfrowania na nowo
Przez długi czas cyfrowe bezpieczeństwo opierało się na prostym założeniu: współczesne komputery potrzebowałyby ogromnych zasobów i wielu lat, aby złamać silne algorytmy szyfrowania. Rozwój technologii kwantowej zaczyna jednak tę regułę podważać, a eksperci przewidują, że w perspektywie 5–10 lat może nadejść „dzień zero”. Jest to moment, w którym zaawansowana maszyna kwantowa będzie w stanie przełamać większość aktualnie stosowanych zabezpieczeń kryptograficznych w czasie liczonym nie w latach, lecz w godzinach.
PSI prezentuje nową identyfikację wizualną
psilogoW ramach realizowanej strategii transformacji PSI Software SE zaprezentowała nową identyfikację wizualną. Odświeżony wizerunek w spójny sposób oddaje technologiczne zaawansowanie firmy, jej głęboką wiedzę branżową oraz silne ukierunkowanie na potrzeby klientów. Zmiany te wzmacniają pozycję PSI jako innowacyjnego lidera technologicznego w obszarze skalowalnych rozwiązań informatycznych opartych na sztucznej inteligencji i chmurze, rozwijanych z myślą o energetyce i przemyśle.
PROMAG S.A. rozpoczyna wdrożenie systemu ERP IFS Cloud we współpracy z L-Systems
PROMAG S.A., lider w obszarze intralogistyki, rozpoczął wdrożenie systemu ERP IFS Cloud, który ma wesprzeć dalszy rozwój firmy oraz integrację kluczowych procesów biznesowych. Projekt realizowany jest we współpracy z firmą L-Systems i obejmuje m.in. obszary finansów, produkcji, logistyki, projektów oraz serwisu, odpowiadając na rosnącą skalę i złożoność realizowanych przedsięwzięć.
F5 rozszerza portfolio bezpieczeństwa o narzędzia do ochrony systemów AI w środowiskach enterprise
F5 ogłosiło wprowadzenie dwóch nowych rozwiązań - F5 AI Guardrails oraz F5 AI Red Team - które mają odpowiedzieć na jedno z kluczowych wyzwań współczesnych organizacji: bezpieczne wdrażanie i eksploatację systemów sztucznej inteligencji na dużą skalę. Nowa oferta łączy ochronę działania modeli AI w czasie rzeczywistym z ofensy
Snowflake + OpenAI: AI bliżej biznesu
Snowflake przyspiesza wykorzystanie danych i sztucznej inteligencji w firmach, przenosząc AI z fazy eksperymentów do codziennych procesów biznesowych. Nowe rozwiązania w ramach AI Data Cloud integrują modele AI bezpośrednio z danymi, narzędziami deweloperskimi i warstwą semantyczną. Partnerstwo z OpenAI, agent Cortex Code, Semantic View Autopilot oraz rozwój Snowflake Postgres pokazują, jak budować skalowalne, bezpieczne i mierzalne wdrożenia AI w skali całej organizacji.



Najnowsze artykuły

Magazyn bez błędów? Sprawdź, jak system WMS zmienia codzienność logistyki
SENTEWspółczesna logistyka wymaga nie tylko szybkości działania, lecz także maksymalnej precyzji – to właśnie te czynniki coraz częściej decydują o przewadze konkurencyjnej firm. Nawet drobne pomyłki w ewidencji stanów magazynowych, błędy przy przyjmowaniu dostaw czy nieprawidłowe rozmieszczenie towarów, mogą skutkować poważnymi stratami finansowymi i opóźnieniami w realizacji zamówień. W jaki sposób nowoczesne rozwiązania do zarządzania pomagają unikać takich sytuacji? Czym właściwie różni się tradycyjny system magazynowy od zaawansowanych rozwiązań klasy WMS (ang. Warehouse Management System)? I w jaki sposób inteligentne zarządzanie procesami magazynowymi realnie usprawnia codzienną pracę setek firm?
Migracja z SAP ECC na S4 HANA: Ryzyka, korzyści i alternatywne rozwiązania
W ostatnich latach wiele firm, które korzystają z systemu SAP ECC (Enterprise Central Component), stoi przed decyzją o przejściu na nowszą wersję — SAP S4 HANA. W obliczu końca wsparcia dla ECC w 2030 roku, temat ten staje się coraz bardziej aktualny. Przemiany technologiczne oraz rosnące oczekiwania związane z integracją nowych funkcji, jak sztuczna inteligencja (AI), skłaniają do refleksji nad tym, czy warto podjąć tak dużą zmianę w architekturze systemu. Przyjrzyjmy się głównym powodom, dla których firmy rozważają migrację do S4 HANA, ale także argumentom,  które mogą przemawiać za pozostaniem przy dotychczasowym systemie ECC, przynajmniej na krótki okres.
Jak maksymalizować zyski z MTO i MTS dzięki BPSC ERP?
BPSC FORTERROZysk przedsiębiorstwa produkcyjnego zależy nie tylko od wydajności maszyn, ale przede wszystkim od precyzyjnego planowania, realnych danych i umiejętnego zarządzania procesami. Dlatego firmy, które chcą skutecznie działać zarówno w modelu Make to Stock (MTS), jak i Make to Order (MTO), coraz częściej sięgają po rozwiązania klasy ERP, takie jak BPSC ERP.
Ponad połowa cyberataków zaczyna się od błędu człowieka
Ponad 2/3 firm w Polsce odnotowała w zeszłym roku co najmniej 1 incydent naruszenia bezpieczeństwa . Według danych Unit 42, zespołu analitycznego Palo Alto Networks, aż 60% ataków rozpoczyna się od działań wymierzonych w pracowników – najczęściej pod postacią phishingu i innych form inżynierii społecznej . To pokazuje, że w systemie ochrony organizacji pracownicy są kluczowym ogniwem – i że firmy muszą nie tylko edukować, ale też konsekwentnie egzekwować zasady cyberhigieny. Warto o tym pamiętać szczególnie teraz, w październiku, gdy obchodzimy Europejski Miesiąc Cyberbezpieczeństwa.
MES - holistyczne zarządzanie produkcją
Nowoczesna produkcja wymaga precyzji, szybkości i pełnej kontroli nad przebiegiem procesów. Rosnąca złożoność zleceń oraz presja kosztowa sprawiają, że ręczne raportowanie i intuicyjne zarządzanie coraz częściej okazują się niewystarczające. Firmy szukają rozwiązań, które umożliwiają im widzenie produkcji „na żywo”, a nie z opóźnieniem kilku godzin czy dni. W tym kontekście kluczową rolę odgrywają narzędzia, które porządkują informacje i pozwalają reagować natychmiast, zamiast po fakcie.

Przeczytaj Również

Infrastruktura w punkcie zwrotnym - 5 prognoz kształtujących AI, odporność i suwerenność danych w 2026 roku

W 2026 roku zyskają firmy, które traktują infrastrukturę nie jako obszar generujący koszty, lecz ja… / Czytaj więcej

Tylko 7% firm w Europie wykorzystuje w pełni potencjał AI

72% firm w regionie EMEA uznaje rozwój narzędzi bazujących na sztucznej inteligencji za priorytet s… / Czytaj więcej

Chmura publiczna w Unii Europejskiej – między innowacją a odpowiedzialnością za dane

Transformacja cyfrowa w Europie coraz mocniej opiera się na chmurze publicznej, która stała się fun… / Czytaj więcej

Jak Cisco pomaga Europie spłacić dług technologiczny w krytycznej infrastrukturze sieciowej

Cyfryzacja, rozwój sztucznej inteligencji i nadchodzące komputery kwantowe wymagają od Europy stabi… / Czytaj więcej

MŚP inwestują w AI, kompetencje pracowników nadal wyzwaniem

Europejskie małe i średnie firmy coraz śmielej inwestują w sztuczną inteligencję, ale to kompetencj… / Czytaj więcej

AP EU AI Cloud: nowy standard suwerennej chmury i AI dla europejskich organizacji

SAP EU AI Cloud to zapowiedziana 27 listopada 2025 r. platforma, która łączy dotychczasowe inicjaty… / Czytaj więcej