Business Intelligence: czas stawiać żagle

Przełom stał się faktem – wyniki ostatnich badań i analiz zaprezentowane przez Gartner Group na BI Summit w lutym b.r. w Londynie potwierdzają, że zapowiadany przełom w dziedzinie Business Intelligence właśnie się dokonał. Top menedżerowie muszą zastanowić się, w jaki sposób ustawić firmowy okręt do nowego wiatru.
Firmy stojące wobec wyzwań gospodarki opartej na informacji znalazły odpowiedź - lawinowo przyrasta liczba firm wdrażających rozwiązania Business Intelligence nowej generacji wykorzystujące asocjacyjne bazy danych in-memory. Wypierane są dominujące dotychczas rozwiązania BI oparte na technologii OLAP, zapewniając użytkownikom biznesowym łatwiejszy i szerszy dostęp do informacji, taniej, szybciej i bardziej elastycznie niż kiedykolwiek. Przełomowość obserwowanych zmian polega na tym, że firmy śmiało przyswajając nowe technologie jednocześnie przebudowują całościowe podejście organizacji do BI – począwszy od metod wdrożeniowych przez demokratyzację informacji a kończąc na nowym podziale kompetencji na linii IT i biznes.

Warto zaznaczyć, że duża popularność nowego podejścia oraz zwiększenie dostępności narzędzi BI nie odbywa się kosztem ich jakości lub wydajności. Nie stanowi także efektu marketingowej ofensywy, a wynika z dowiedzenia skuteczności nowatorskich technologii i metodyk wdrożeniowych. Większa wydajność nowego BI, większa elastyczność, lepszy odbiór przez użytkownika idzie tu paradoksalnie w parze z mniejszymi kosztami wdrożenia, mniejszymi wymagania sprzętowymi. W skrócie - z niższym TCO. Taka sytuacja potwierdza opinie o przełomowym charakterze nowego BI.

Zobaczmy jakie są główne czynniki przełomu:
  • popyt biznesu na informację wynikający z większej niż kiedykolwiek presji na konkurencyjność i efektywność działania; popyt na informację podaną w nowy sposób - łatwo i intuicyjnie dla użytkownika biznesowego, bez oczekiwania, na każde urządzenie i w każdym miejscu; wreszcie popyt na znacznie szerszą i bardziej szczegółową informację integrującą rosnące ilości danych pochodzących z coraz większej liczby systemów źródłowych. Jest to popyt, którego tradycyjna architektura BI nie jest już w stanie zaspokajać.
  • dostępność nowej technologii – Business Intelligence nowej generacji to nie tylko lepsze parametry techniczne jak wysoka wydajność, szybkość i elastyczność. Fundamentalne znaczenie dla skuteczności wdrożenia ma efektywność kosztowa. Nowe narzędzia BI, określane często jako Data Discovery wymagają mniejszych nakładów na ich wdrożenie i rozwój, które mogą odbywać się modułowo, w sposób skalowalny i pod kontrolą użytkowników, często w modelu self-service;
  • upowszechnienie, wejście nowej technologii do głównego nurtu, o czym świadczą jasno rozmiary rynku Data Discovery, którego wielkość jest oszacowana przez firmę Gartner na 591 mln USD w 2011 r. i prognozowana na 1 mld w 2013; śmiało można powiedzieć, że obawy towarzyszące wprowadzaniu rozwiązań pionierskich nie dotyczą już BI in-memory.
Temat dostępu do aktualnej informacji jest w każdej firmie zdecydowanie tematem interdyscyplinarnym, biznesowym. Informacja pomaga w operacyjnych, codziennych działaniach, pozwala podnosić efektywność firmy, konkurować z resztą rynkowej stawki. Według prognoz cytowanej już firmy Gartner, do 2015 r. odpowiedzialność za decyzje o wyborze narzędzi IT w dużej mierze przejdzie na barki użytkowników biznesowych – szacuje się, że za 3 lata 35% wydatków na technologie informatyczne będzie pochodziło spoza budżetu IT w firmie. Innymi słowy, tzw. menedżerowie biznesowi przejmą odpowiedzialność za wybór, wdrożenie i rozwój systemów BI. W tej sytuacji warto zaprosić każdego top menedżera – CEO, COO, CFO, CIO, CMO - do rozważenia, w jakim stopniu nowa kultura informacyjna jest potrzebna w jego firmie i w podległym mu obszarze.

  • Czy dostrzega rosnące zapotrzebowanie na coraz bardziej zróżnicowane informacje i rosnącą trudność ich uzyskania z coraz większej liczby systemów?
  • Czy nowy BI dostarczając lepszą jakość informacji może realnie poprawić efektywność i konkurencyjność prowadzonego biznesu?
Mając na uwadze owe dylematy nowoczesnego top menedżera, spróbujmy przejść nieco dokładniej przez wymienione wyżej trzy przyczyny nowego rozdania na rynku BI.
 
Nowy popyt na nową informację

Warunki, w których działają firmy można z punktu widzenia dostępu do informacji scharakteryzować najkrócej jako swoisty dyktat potrzeb użytkownika biznesowego, który coraz bardziej zdecydowanie żąda informacji dopasowanej do jego zmiennych potrzeb, dostępnej natychmiast, łatwej, zrozumiałej i docierającej przy użyciu urządzeń mobilnych, w każdym miejscu.

Bez wątpienia jest to w dużym stopniu efekt przemian społecznych, jakie przyniosła w ostatnich latach ekspansja technologii informatycznych w społeczeństwach rozwiniętych. Powszechna dostępność do Internetu, produktów takich firm jak Google i Apple wykształciła u setek milionów ludzi na całym świecie nowe wyobrażenie o standardzie i ergonomii korzystania z zaawansowanych technologicznie produktów. Według różnych szacunków, ok. 40% aktywnych zawodowo ludzi w USA stanowią przedstawiciele pokolenia, które „wychowało” się na przeglądarce www, iPodzie, tablecie i nie doświadczyło jeszcze innego sposobu obsługi systemów i urządzeń. Dla nich czas oczekiwania na odpowiedź dłuższy niż w Google lub obsługa trudniejsza niż w przypadku iPhona jest trudna do przyjęcia. Nie inaczej jest w Polsce. Dla takich pracowników sytuacja, w której system analityczny jest trudny w obsłudze, często wymagane są wielodniowe szkolenia, na odpowiedź trzeba czekać minutami a informacja często pochodzi sprzed kilku dni jest niezrozumiała i demotywująca.

Nowy popyt na informację wynika także z konieczności rozszerzenia grona odbiorców przetworzonej informacji i analiz w strukturze organizacyjnej przedsiębiorstwa. Coraz większa konkurencyjność, konieczność poprawy jakości obsługi klienta, przede wszystkich poprzez skrócenie czasu obsługi, wymusza na firmach delegację części decyzji biznesowych na coraz niższe struktury, czasami aż do poziomu operacyjnego. Tworzy się potrzeba wspierania procesu decyzji i partycypacji w decyzjach, kolejnych poziomów kierownictwa i pracowników. Ilość sytuacji w których warto podejmować decyzje biorąc pod uwagę całościową efektywność działań rośnie, a technologie dają szansę dokonywania najlepszych wyborów.

Dzieje się tak ze względu na rosnącą liczbę źródeł danych na temat produktów, ich odbioru przez klientów, wszelkich aspektów prowadzenia biznesu. Po stronie konsumenckiej także bowiem dokonała się rewolucja i klient nauczył się, że kupowanie oznacza również interakcję za pośrednictwem kanałów elektronicznych. O marce produktu świadczy sposób i styl, w jaki komunikuje się ze swoimi klientami. To wszystko oznacza wzrost liczby danych, na bazie których można elastycznie reagować na zmieniającą się sytuację rynkową. Z drugiej strony, apetyt rośnie w miarę jedzenia. Rozwój kultury informacyjnej w oparciu o rozwiązania elastyczne i szybkie prowadzi do sprzężenia zwrotnego: raz przekonani do opierania decyzji i działania na informacjach uzyskanych ze skorelowanych w odpowiedni sposób danych wyjściowych, pracownicyużytkownicy dążyć będą do tworzenia nowych zapytań, aby uzyskać informacje pozwalające jeszcze precyzyjniej kierować poczynaniami biznesowymi.

Upowszechnienie dostępu do informacji oznacza zatem jej dostępność na wszelkie platformy komunikacyjne, na rosnącą liczbę poziomów decyzyjnych, uporządkowanej w sposób ułatwiający, automatyzujący podejmowanie przez osobę odpowiedzialną decyzji biznesowej.

Czy do obsługi tych wyzwań nie wystarczą jednak klasyczne rozwiązania BI oparte na technologii OLAP? Z całym przekonaniem można już dziś odpowiedzieć, że niestety nie. Koszt obsługi takiej liczby danych, w nowym, opisanym tu trybie dostępu do informacji jakiego wymaga biznes, jest zdecydowanie wyższy. Co więcej, także pod względem technologicznym obsługa takiego strumienia danych i takiego popytu na informację w starym modelu dobiega szybko kresu swoich możliwości. Dobitnie podkreśla to analiza Gartnera prezentowana podczas tegorocznej edycji konferencji Business Intelligence Summit. Jak wskazuje Gartner, 85% działających obecnie na świecie hurtowni danych w ciągu dwóch lat utraci zdolność dostosowania się do rosnącej ilości danych i nowych potrzeb związanych z ich przetwarzaniem.

Proponujemy, aby w tej sytuacji CxO, top menedżer rozważający potrzeby informacyjne podległego mu obszaru i całej firmy w kontekście jej udziału w nowoczesnej gospodarce, poszukał odpowiedzi na następujące pytania:
  • Czy w firmie odczuwany jest popyt na informację?
  • Czy forma i tryb dostarczania informacji potrzebnej do podejmowania decyzji nie tłumi tego popytu?
  • Czy zarząd firmy dostrzega korzyści z szybkiego i powszechnego dostępu do informacji biznesowej, potrzebnej do decyzji taktycznych, operacyjnych i strategicznych?

Nowe imię BI

Pojawieniu się i upowszechnieniu nowych narzędzi BI towarzyszy zmiana świadomości klientów co do rynku dostawców BI. Po długich latach dominacji tzw. mega-dostawców, paradoksalnie to mniejsi, dużo bardziej innowacyjni dostawcy zaczęli wyznaczać nowe trendy. Zdaniem Gartnera, to właśnie dostawcy BI in-memory wyznaczyli nowy standard wydajności i elastyczności narzędzi analitycznych, którym podążać zaczynają teraz wielcy producenci tradycyjnych systemów. Część mega-dostawców próbuje wprowadzić na rynek produkty w całości oparte o in-memory inni skupiają się jedynie na przyspieszeniu starych rozwiązań tworząc konstrukcje hybrydowe, jeszcze inni uruchomili machiny marketingowe promujące innowacyjne rozwiązania, których de facto nie mają jeszcze w swojej ofercie. W powszechnej ocenie są to jednak działania o wiele lat spóźnione lub niewystarczające. Dowodzą tego zmiany w preferencjach użytkowników BI. Wg danych Gartner Group na przestrzeni ostatnich 3 lat nastąpił zdecydowany, sięgający w niektórych wypadkach 20%, spadek wyboru produktów mega-dostawców jako standardu platformy BI w firmach na całym świecie.

Narzędzia BI nowej generacji to nie tylko wysoka wydajność. Korzyścią nie mniej ważną co możliwość przetworzenia milionów danych w ułamkach sekund jest elastyczność całego modelu analitycznego. Elastyczność to możliwość stopniowego i ewolucyjnego dostosowania całego systemu raportowania do zmieniających się wymagań użytkownika a także zmieniających się w tle systemów informatycznych. Z tych względów we wdrażaniu nowego BI coraz częściej wybierane jest podejście agile. Pozwala to na stopniowe wprowadzanie BI, w obszarach, gdzie najszybciej nastąpi zwrot z poniesionych nakładów. Dzięki stosowaniu lekkiej metodyki oraz krótszych i mniej sformalizowanych projektów czas osiągania korzyści jest krótszy a koszty mniejsze. Stopniowo rozbudowywane BI nowego typu może obejmować całość organizacji i jej procesów, przyczyniając się do generowania wartości z oparcia całego biznesu na informacji, która jest precyzyjnie dopasowana do chwilowych i długofalowych potrzeb. Rozwinięciem takiej filozofii jest podejście self-service, promowane przez dostawców BI in-memory. Dzięki prostocie rozwiązania i przystosowaniu do pracy z użytkownikami biznesowymi firma może łatwo wykształcić kompetencje oraz entuzjazm do dalszego rozwijania, przystosowywania i zmieniania rozwiązania Business Intelligence całkowicie we własnym zakresie. W jego rozwój angażują się ci, którzy najwięcej mogą na tym zyskać: sami pracownicy. Dzięki temu system analityczny jest rozwiązaniem, które żyje, zmienia się wraz z firmą, odzwierciedla sposób, w jaki prowadzony jest biznes. Pozwala także prognozować rozwój sytuacji i w odpowiedni sposób dostrajać do niej procesy.

Przymierzając możliwości, jakie przynosi BI in-memory i możliwości jego integracji z procesami firmy i jej modelem biznesowym, warto z perspektywy top menedżera zastanowić się:
  • Czy strategia firmy zakłada wykorzystanie technologii BI do przełamywania trudności i osiągania pozycji lidera w rynkowej niszy?
  • Kto odpowiada za wydatki na rozwiązania IT, a szczególności narzędzia wspierające podejmowanie decyzji, analizę danych?
  • Czy procedury i kryteria wyboru narzędzi BI uwzględniają najnowsze światowe trendy technologiczne i biznesowe?

Nowy BI w głównym nurcie


Z formalnego punktu widzenia, zmianę na rynku potwierdza uzyskanie rynkowej masy krytycznej przez rozwiązania BI In-memory. Według obliczeń firmy Gartner, w ub. roku wartość rynku BI In-memory (w nomenklaturze Gartnera ten typ rozwiązań to Data Discovery) wyniosła blisko 600 mln dolarów, w 2013 r. przekroczy 1 mld dolarów, a w 2015 – 1,6 mld dolarów (dla porównania całość rynku platform analitycznych warta była w 2010 r. 10 mld dolarów).

Sytuacja na rynku BI odzwierciedla obserwowaną także w innych obszarach IT ewolucję rozwiązań informatycznych. To kolejny obszar, gdzie z racji swoich możliwości – wydajności i ergonomii, do głosu dochodzą rozwiązania projektowane jako produkty konsumenckie. W przypadku Business Intelligence, systemy pierwszej generacji w technologii OLAP i bazujące na nich do dziś wielkie rozwiązania od czołowych dostawców tradycyjnego rynku BI przetwarzały dane w sztywnych, z góry określonych strukturach i z wykorzystaniem hurtowni zasilanych danymi z systemów typu ERP, CRM. Punktem ciężkości w tym modelu jest technologia a nie trudno zaspokajalne potrzeby użytkownika. Novum w narzędziach in-memory jest możliwość prostego przeniesienia danych szczegółowych, często z pominięciem hurtowni, do pamięci operacyjnej serwera i swobodna możliwość zadawania przez użytkowników biznesowych dowolnych pytań, do których odpowiedzi system wylicza na bieżąco, w ciągu sekund i podaje w atrakcyjnej wizualnie, zrozumiałej formie. Jednocześnie BI in-memory to rozwiązanie zdecydowanie tańsze i szybsze od „klasycznego”– zarówno pod względem czasu oczekiwania na odpowiedź, jak też ze względu na czas wdrożenia. Radykalne uproszczenie procesu ładowania danych i modelowania prezentacji danych powoduje, że środek ciężkości nowego BI przesuwa się zdecydowanie w kierunku biznesu i właśnie ten fakt jest w opinii wielu obserwatorów jednym z głównych czynników jego sukcesu.

Warto zauważyć, że obecnie rynek nowego BI różni się wyraźnie od rynku tradycyjnego BI. O ile ten ostatni podzielony został pomiędzy kilku potężnych graczy, to na rynku BI In-Memory mamy do czynienia z wyraźną dominacją jednego z pionierów tej technologii, amerykańskiej firmy o skandynawskich korzeniach - QlikTech. QlikView, ich sztandarowe rozwiązania, posiada obecnie ok. 40-proc. udział w światowym rynku Data Discovery. Jest to pionierska platforma analityczna oparta o koncepcję asocjacyjnej bazy in-memory rozwijana od 1993 r. W lutym br. Gartner ogłosił, że QlikView ponownie uplasował się w segmencie liderów BI. Od 2007 r. QlikView jest obecny także na polskim rynku dzięki współpracy z firmą Hogart Business Intelligence. Firma ta ma na swoim koncie szereg, bardzo zróżnicowanych wdrożeń z różnych sektorów i segmentów polskiej gospodarki. Dowodzi to uniwersalnego charakteru rozwiązania i uniwersalności potrzeb, przed którymi stoją firmy. Łączy je jednak zarazem kilka wspólnych cech: firmy, które zdecydowały się na wdrożenie nowoczesnego BI mają wysoką świadomość potrzeb użytkowników biznesowych, stawiają na szybkość uzyskania zwrotu z inwestycji oraz często zmagają się z problemem słabej wydajności na dużych ilościach danych. W praktyce projektowej oznaczało to nie tylko krótki czas wdrożenia, ale także krótki czas przyswojenia sobie pracy w tym środowisku przez użytkowników. I wreszcie – zarządzający w doborze BI kierowali się dążeniem do wytworzenia w firmie nowego podejścia do biznesu, nowej kultury organizacyjnej zorientowanej na podejmowanie świadomych decyzji w oparciu o rzetelną i łatwo dostępną informację. Tylko dając do niej łatwy dostęp, inspirujący do kreowania biznesu, widzieli szansę na uczynienie z informacji jednego z kluczowych czynników konkurencyjności swoich firm.

Ostatnia seria propozycji pytań pod rozwagę top menedżera, przed przystąpieniem do analizy potrzeb zarządzania informacją w firmie, dotyczy bezpośrednio rozwiązań In-Memory. Nie jest to już dziedzina pionierów, nastąpił czas followerów. Ryzyko jest mniejsze. Nadal można dużo uzyskać, aplikując całościowo lub punktowo, ewolucyjnie podejście do zarządzania, jakie stwarzają nowe rozwiązania BI.

  • W jakim stopniu CIO i departamentowi IT znane są rozwiązania BI In-memory?
  • Jaka jest dojrzałość / poziom ewolucji rozwiązań BI lub pre-BI w firmie?
  • Czy można łatwo sklasyfikować role i potrzeby informacyjne pracowników ze względu na miejsce w organizacji, funkcje itd.?
  • Czy dostęp do informacji w trybie BI nowej generacji można zaliczyć do czynników sukcesu w krótkim i dłuższym horyzoncie czasowym?
Źródło: robertjesionek.wordpress.com
Autor: Marek Grzybek - Dyrektor Zarządzający HOGART BUSINESS INTELLIGENCE

Zarządza pionem rozwiązań Business Intelligence opartym o najnowszą generację narzędzi analitycznych QlikView.
Współtworzył koncepcję wprowadzenia produktu QlikView na polski rynek, definiował strategię sprzedaży dla tego rozwiązania, a także doprowadził do podpisania kilku najpoważniejszych kontraktów wdrożeniowych QlikView w Polsce. Związany z firmą Hogart od 1996, początkowo kierował działem rozwoju oprogramowania i wsparcia technicznego dla produktów Oracle/JDEdwards. Zyskał wieloletnie doświadczenie w zarządzaniu projektami IT w firmach polskich i międzynarodowych, a także w dziedzinie rozwoju aplikacji oraz narzędzi analityczno-raportowych. Wcześniej pracował dla firmy Cordat jako projektant oprogramowania. Absolwent Wydziału Zarządzania Akademii Ekonomicznej w Krakowie.

PRZECZYTAJ RÓWNIEŻ:


Back to top