Przejdź do głównej treści

Banki potrzebują Fast Data do efektywnej obsługi klientów

Katgoria: IT SOLUTIONS / Utworzono: 05 wrzesień 2014

Banki potrzebują Fast Data do efektywnej obsługi klientów

Minęły czasy, kiedy najefektywniejszym sposobem załatwienia sprawy w banku była wizyta w jego oddziale. Wraz z szybkim rozwojem komunikacji internetowej i serwisów społecznościowych, banki muszą sprostać zmieniającym się oczekiwaniom klientów. Ci chcą korzystać z usług bankowych i dostępnych na rachunkach środków w dowolnej chwili i przy pomocy urządzenia, które akurat mają pod ręką.


 
Dla sektora bankowego wielkim wyzwaniem jest zapewnienie infrastruktury informatycznej do wspierania obsługi klientów niezależnie od tego, w jaki sposób wchodzą oni w interakcję z organizacją. Jednocześnie banki zdają sobie sprawę, że taka infrastruktura daje szansę znacznie skuteczniejszego wykorzystywania danych niezbędnych do identyfikacji potencjalnego ryzyka, jak i efektywnego modelowania usług pod kątem oczekiwań klientów. Oczekiwania mogą spełnić systemy IT, które są zdolne do ciągłego przetwarzania w czasie rzeczywistym ogromnych ilości danych, generowanych w różnych źródłach.

Przetwarzanie danych w ‘silosach’ to pułapka

Dążenie do samoobsługi klientów jest w bankowości detalicznej jednym z kluczowych czynników stojących za rozwojem IT. Trend ten dobrze obrazują coraz liczniejsze wpłatomaty i bankomaty, dynamiczny rozwój bankowości elektronicznej oraz zachęcanie klientów do korzystania z usług banków przez Internet i z pomocą aplikacji mobilnych. Równolegle do tego trendu banki poddawane są nowym, coraz ostrzejszym regulacjom prawnym i wnikliwszym kontrolom, a dodatkowo zmuszone są konkurować z innymi organizacjami finansowymi oraz operatorami płatności.

W takiej sytuacji jedyne czego bankom zrobić nie wolno, to w reakcji na zmiany uwarunkowań rynkowych przetwarzać i analizować dane odrębnie dla każdego kanału komunikacji z rynkiem. Oznaczałoby to tworzenie ‘silosów informacji’. Konsekwencją działania w takim modelu byłoby nie tylko duplikowanie pracy oraz straty zasobów, lecz również trudności w identyfikowaniu ryzyka i szans pojawiających się w trakcie obsługi klientów, którzy kontaktując się z bankiem często zmieniają kanały komunikacji.

Coś więcej niż Big Data

Niestety, dla efektywnego wykorzystania danych, nie wystarczy tylko zgromadzić je wszystkie w jednym miejscu, by następnie poddawać je analizom. To archaiczne podejście do Big Data, oparte m.in. na takich narzędziach jak Hadoop, Hive czy Cassandra. Owszem, dzięki tym rozwiązaniom banki mogą identyfikować trendy rynkowe, jednak wciąż jest to tylko analiza danych w trybie offline, co oznacza, że wyniki odnoszą się do przeszłości. W efektywnym Big Data chodzi o udzielanie w pełni prawidłowej odpowiedzi na zadane pytanie, przy czym im więcej upływa czasu od zebrania danych do udzielenia odpowiedzi, tym mniej jest ona wartościowa i przydatna.

Jeśli dodamy do tego ciągłe zmiany w źródłach danych, ich formatach i ilości, szybko zrozumiemy, że samo Big Data nie wystarczy, by organizacje zorientowane na klientów mogły dynamicznie i skutecznie modelować swoje usługi. Co więcej, Big Data samo w sobie nie zapewni bezpieczeństwa usługom, które trzeba błyskawicznie modelować, zależnie od tego, kim jest klient, co w danej chwili chce zrobić oraz za pośrednictwem którego kanału kontaktuje się z bankiem.

Fast Data = lepsze dane

W przyszłości klienci banków będą doskonale funkcjonować w cyfrowym świecie. Ich wiedza o możliwościach wyboru produktów i usług będzie znacznie bogatsza, a to oznacza, że wobec banków będą ciągle rosły oczekiwania personalizowania usług pod kątem indywidualnych oczekiwań. To oznacza, że w całym sektorze bankowym, aby móc szybko zareagować na zachowania i oczekiwania klientów, konieczne będzie analizowanie różnego rodzaju danych u ich źródła – na wejściu. Co więcej, sprawne przetwarzanie informacji będzie musiało odbywać się niezależnie od kanału styku klienta z bankiem, w odpowiednim dla konkretnej sytuacji kontekście. Banki potrzebują więc inteligentnego wykorzystywana danych, do czego niezbędna jest kompleksowa infrastruktura informatyczna, zdolna do błyskawicznego wychwytywania i analizy informacji, niezależnie od tego kiedy i w jaki sposób klient wchodzi w interakcję z organizacją.

Taka infrastruktura powinna wykorzystywać analitykę zdarzeń, dopełniając przetwarzanie w istniejących bazach danych (in-memory). W ten sposób możliwe jest uzyskiwanie w sposób ciągły korelacji milionów zdarzeń, co w praktyce pozwala identyfikować szanse i zagrożenia w czasie rzeczywistym, czyli wtedy, gdy one występują, a nawet zanim wystąpią. Tak właśnie rozumiemy pojęcie Fast Data, które urzeczywistniamy wdrażając informatyczną platformę dystrybucyjną dla automatyzowania procesów, tzn. szybkiego reagowania w przypadku wystąpienia zdarzeń krytycznych (np. podejrzanej defraudacji) oraz efektywnego wykorzystywania nadarzających się szans (np. przygotowanie indywidualnej usługi dopasowanej do konkretnych potrzeb i sytuacji klienta).

Krok naprzód

Fast Data wsparte platformą analizy zdarzeń to dla banków możliwość skutecznego działania w oparciu o przewidywanie przyszłości. To jeden z kluczowych czynników budowania przewagi konkurencyjnej. Warto podkreślić, że infrastruktura Fast Data to jednocześnie platforma do integracji już istniejących i nowo instalowanych systemów. Dzięki niej bank może zwiększyć efektywność – automatyzacja procesów i optymalizacja zasobów ludzkich, pozwala znacznie zredukować koszty (bank błyskawicznie bada zdolność kredytową klienta i nie popełnia błędów w wykonywaniu procedur, takich jak np. generowanie nowych rachunków czy obsługa reklamacji).

Zarządzanie komunikacją i obsługa klientów w nowych kanałach komunikacji jest wyzwaniem dla wszystkich banków. Odpowiedzią na nie jest właściwa platforma informatyczna zdolna do gromadzenia, analizy i reagowania w czasie rzeczywistym na pochodzące z milionów zdarzeń dane.

Źródło: TIBCO
Autor: Maurizio Canton, Szef Technologii na region EMEA w TIBCO Software

Najnowsze wiadomości

Kwantowy przełom w cyberochronie - nadchodząca dekada przepisze zasady szyfrowania na nowo
Przez długi czas cyfrowe bezpieczeństwo opierało się na prostym założeniu: współczesne komputery potrzebowałyby ogromnych zasobów i wielu lat, aby złamać silne algorytmy szyfrowania. Rozwój technologii kwantowej zaczyna jednak tę regułę podważać, a eksperci przewidują, że w perspektywie 5–10 lat może nadejść „dzień zero”. Jest to moment, w którym zaawansowana maszyna kwantowa będzie w stanie przełamać większość aktualnie stosowanych zabezpieczeń kryptograficznych w czasie liczonym nie w latach, lecz w godzinach.
PSI prezentuje nową identyfikację wizualną
psilogoW ramach realizowanej strategii transformacji PSI Software SE zaprezentowała nową identyfikację wizualną. Odświeżony wizerunek w spójny sposób oddaje technologiczne zaawansowanie firmy, jej głęboką wiedzę branżową oraz silne ukierunkowanie na potrzeby klientów. Zmiany te wzmacniają pozycję PSI jako innowacyjnego lidera technologicznego w obszarze skalowalnych rozwiązań informatycznych opartych na sztucznej inteligencji i chmurze, rozwijanych z myślą o energetyce i przemyśle.
PROMAG S.A. rozpoczyna wdrożenie systemu ERP IFS Cloud we współpracy z L-Systems
PROMAG S.A., lider w obszarze intralogistyki, rozpoczął wdrożenie systemu ERP IFS Cloud, który ma wesprzeć dalszy rozwój firmy oraz integrację kluczowych procesów biznesowych. Projekt realizowany jest we współpracy z firmą L-Systems i obejmuje m.in. obszary finansów, produkcji, logistyki, projektów oraz serwisu, odpowiadając na rosnącą skalę i złożoność realizowanych przedsięwzięć.
F5 rozszerza portfolio bezpieczeństwa o narzędzia do ochrony systemów AI w środowiskach enterprise
F5 ogłosiło wprowadzenie dwóch nowych rozwiązań - F5 AI Guardrails oraz F5 AI Red Team - które mają odpowiedzieć na jedno z kluczowych wyzwań współczesnych organizacji: bezpieczne wdrażanie i eksploatację systemów sztucznej inteligencji na dużą skalę. Nowa oferta łączy ochronę działania modeli AI w czasie rzeczywistym z ofensy
Snowflake + OpenAI: AI bliżej biznesu
Snowflake przyspiesza wykorzystanie danych i sztucznej inteligencji w firmach, przenosząc AI z fazy eksperymentów do codziennych procesów biznesowych. Nowe rozwiązania w ramach AI Data Cloud integrują modele AI bezpośrednio z danymi, narzędziami deweloperskimi i warstwą semantyczną. Partnerstwo z OpenAI, agent Cortex Code, Semantic View Autopilot oraz rozwój Snowflake Postgres pokazują, jak budować skalowalne, bezpieczne i mierzalne wdrożenia AI w skali całej organizacji.



Najnowsze artykuły

Magazyn bez błędów? Sprawdź, jak system WMS zmienia codzienność logistyki
SENTEWspółczesna logistyka wymaga nie tylko szybkości działania, lecz także maksymalnej precyzji – to właśnie te czynniki coraz częściej decydują o przewadze konkurencyjnej firm. Nawet drobne pomyłki w ewidencji stanów magazynowych, błędy przy przyjmowaniu dostaw czy nieprawidłowe rozmieszczenie towarów, mogą skutkować poważnymi stratami finansowymi i opóźnieniami w realizacji zamówień. W jaki sposób nowoczesne rozwiązania do zarządzania pomagają unikać takich sytuacji? Czym właściwie różni się tradycyjny system magazynowy od zaawansowanych rozwiązań klasy WMS (ang. Warehouse Management System)? I w jaki sposób inteligentne zarządzanie procesami magazynowymi realnie usprawnia codzienną pracę setek firm?
Migracja z SAP ECC na S4 HANA: Ryzyka, korzyści i alternatywne rozwiązania
W ostatnich latach wiele firm, które korzystają z systemu SAP ECC (Enterprise Central Component), stoi przed decyzją o przejściu na nowszą wersję — SAP S4 HANA. W obliczu końca wsparcia dla ECC w 2030 roku, temat ten staje się coraz bardziej aktualny. Przemiany technologiczne oraz rosnące oczekiwania związane z integracją nowych funkcji, jak sztuczna inteligencja (AI), skłaniają do refleksji nad tym, czy warto podjąć tak dużą zmianę w architekturze systemu. Przyjrzyjmy się głównym powodom, dla których firmy rozważają migrację do S4 HANA, ale także argumentom,  które mogą przemawiać za pozostaniem przy dotychczasowym systemie ECC, przynajmniej na krótki okres.
Jak maksymalizować zyski z MTO i MTS dzięki BPSC ERP?
BPSC FORTERROZysk przedsiębiorstwa produkcyjnego zależy nie tylko od wydajności maszyn, ale przede wszystkim od precyzyjnego planowania, realnych danych i umiejętnego zarządzania procesami. Dlatego firmy, które chcą skutecznie działać zarówno w modelu Make to Stock (MTS), jak i Make to Order (MTO), coraz częściej sięgają po rozwiązania klasy ERP, takie jak BPSC ERP.
Ponad połowa cyberataków zaczyna się od błędu człowieka
Ponad 2/3 firm w Polsce odnotowała w zeszłym roku co najmniej 1 incydent naruszenia bezpieczeństwa . Według danych Unit 42, zespołu analitycznego Palo Alto Networks, aż 60% ataków rozpoczyna się od działań wymierzonych w pracowników – najczęściej pod postacią phishingu i innych form inżynierii społecznej . To pokazuje, że w systemie ochrony organizacji pracownicy są kluczowym ogniwem – i że firmy muszą nie tylko edukować, ale też konsekwentnie egzekwować zasady cyberhigieny. Warto o tym pamiętać szczególnie teraz, w październiku, gdy obchodzimy Europejski Miesiąc Cyberbezpieczeństwa.
MES - holistyczne zarządzanie produkcją
Nowoczesna produkcja wymaga precyzji, szybkości i pełnej kontroli nad przebiegiem procesów. Rosnąca złożoność zleceń oraz presja kosztowa sprawiają, że ręczne raportowanie i intuicyjne zarządzanie coraz częściej okazują się niewystarczające. Firmy szukają rozwiązań, które umożliwiają im widzenie produkcji „na żywo”, a nie z opóźnieniem kilku godzin czy dni. W tym kontekście kluczową rolę odgrywają narzędzia, które porządkują informacje i pozwalają reagować natychmiast, zamiast po fakcie.

Przeczytaj Również

Technologie na żądanie zyskują na popularności, ale za jaką cenę?

W erze dynamicznej transformacji cyfrowej organizacje coraz chętniej sięgają po technologie dostępn… / Czytaj więcej

Jaki serwer dla ERP, CRM czy BI? VPS, dedykowany, chmura a może on-premise?

Wybór właściwej infrastruktury serwerowej dla systemów ERP, CRM czy Business Intelligence to jedna… / Czytaj więcej

Strategiczna przewaga czy kosztowny mit? Kto wygrywa dzięki chmurze?

Chmura miała być odpowiedzią na wyzwania sektora finansowego: przestarzałą infrastrukturę, rozprosz… / Czytaj więcej

Nowe narzędzie, nowe możliwości – Adrian Guzy z CTDI o innowacyjności, kulturze pracy z danymi i analityce w Microsoft Fabric

W nowej siedzibie CTDI w Sękocinie Starym pod Warszawą tafle szkła odbijają poranne słońce, a wnętr… / Czytaj więcej

Hiperautomatyzacja: kolejny etap rewolucji czy buzzword?

Automatyzacja to już nie tylko boty i proste skrypty – kolejnym krokiem jest hiperautomatyzacja, kt… / Czytaj więcej

Jak agenci AI zrewolucjonizują przemysł, zwiększą produktywność i obniżą koszty

Obecnie każda firma chce być firmą AI, ale według McKinsey tylko 1% przedsiębiorstw uważa, że osiąg… / Czytaj więcej