BI in-memory nie wszystko złoto co się świeci

HOGART BUSINESS INTELLIGENCEDziś bez wątpienia można powiedzieć, że ostatnie lata światowego rynku Business Intelligence stały pod znakiem zasadniczej przemiany w stosowanych technologiach oraz w świadomości i poziomie oczekiwań użytkowników biznesowych. Śledząc publikacje branżowe i teksty marketingowe dostawców BI rzadkością są dziś materiały, które nie wspominałyby choć na marginesie o „in-memory”, czy trendzie Data Discovery. Znamienne jest to, że bardzo często są to wypowiedzi firm, które jeszcze kilka lat temu deprecjonowały znaczenie i możliwość szerokiego stosowania właśnie tych technologii. Ta zmiana stanowiska jest bezpośrednią konsekwencją światowego sukcesu takich produktów jak np. QlikView oraz faktu, że są one coraz częściej przyjmowane przez użytkowników BI jako nowy standard jakości oraz nowy wzorzec koncepcji systemów analitycznych w przedsiębiorstwie.

Ponadto, grono użytkowników nowego Business Intelligence rośnie w ogromnym tempie. Dla przykładu QlikView działa obecnie w ponad 25 tys. firm w 100 krajach. Nie bez znaczenia jest fakt, że do tego grona zaliczają się też największe światowe koncerny. To najlepszy dowód, że przełom już nastąpił a zmiana jest nieodwracalna. W tej sytuacji dostawcom narzędzi i usług z epoki OLAP pozostaje jedynie nie odstawać zbytnio od nowych trendów poprzez lepsze lub gorsze naśladownictwo.

W ostatnim czasie widzimy wiele informacji prasowych, artykułów, tematów konferencji branżowych poświęconych wprowadzeniu bądź planom wprowadzenia przez dostawców BI nowych produktów, modułów, funkcjonalności a prawie wszystko to spod znaku „in-memory”. Niestety coraz częściej można odnieść wrażenie, że mamy do czynienia z naśladownictwem nieudolnym bo sprowadzającym się do skopiowania tylko jednej, najbardziej dostrzegalnej cechy oryginalnej koncepcji, nie zwracając przy tym uwagi na wszystkie inne ważne cechy. Efekt bardzo często można porównać z przykrym wrażeniem rozczarowania jaki towarzyszy zakupowi taniej podróbki, która z zewnątrz wygląda jak produkt oryginalny ale po bliższym spojrzeniu ujawnia słabą jakość a czasami nawet brak podstawowej oczekiwanej funkcjonalności. W przypadku BI „in-memory” tą najbardziej widoczną, spektakularną cechą, która jest najchętniej "podrabiana" to prosty fakt przeniesienia składowania danych lub ich przetwarzania z dysków do pamięci operacyjnej. Oczywiście każdy ma prawo na swój sposób definiować termin "in-memory" (nie jest on opatentowany), ale warto sobie uświadamiać które cechy, technologie i funkcjonalności były powodem sukcesu wiodących narzędzi BI nowej generacji, a które są tylko marketingową etykietką naklejaną na tradycyjne podejście do BI. Proste przeniesienie przetwarzania danych z dysku do pamięci z pewnością przyspiesza działanie wybranych funkcji systemu. Należy tu jednak postawić dwa pytania. Czy samo przyspieszenie reakcji systemu na zapytania użytkowników daje gwarancję powodzenia projektu BI i zadowolenia użytkowników? Oraz czy zastosowana technologia BI przyspiesza cały cykl projektowania, przetwarzania i analizy danych, czy tylko daje lepszy komfort pracy użytkownika końcowego podczas gdy zasilanie i przetwarzania danych jest wciąż długotrwałe i nieelastycznie.
  • Według Jamesa Richardsona - analityka rynku BI z Gartner Group - w przepisie na nowoczesne i skuteczne platformy analityczne, czyli takie które przynoszą przełom we współczesnym BI, koniecznie muszą wyróżniać się trzy najważniejsze cechy: Wydajność rozumiana jako szybkość odpowiedzi oraz szybkość przetwarzania dużych wolumenów danych bez eskalacji wymagań sprzętowych (zapewniana przede wszystkim przez asocjacyjne bazy „in-memory” zdolne do przechowywania dużych wolumenów gęsto skompresowanych danych);
  • Elastyczność rozumiana jako bardzo wysoka zdolność narzędzia do szybkiego zaadoptowania zmian wymagań i przebudowy zarówno sposobu wizualizacji danych jak i modelu pobierania i przetwarzania danych. Elastyczność powinna występować zarówno w fazie projektowej jak i w trakcie produkcyjnego użytkowania systemu umożliwiając stosowanie zwinnych metodyk wdrożeniowych, tzw. agile; • Prostota rozumiana jako łatwość użytkowania i projektowania systemu, przejrzystość i atrakcyjność interfejsu graficznego, nakierowanie na użytkownika biznesowego, m.in. dostosowanie do wdrożeń tzw. self-service;

Pominięcie któregokolwiek z tych „sekretnych" składników powoduje, że cała „magiczna" mikstura nie działa. Duża szybkość działania aplikacji jaką daje przetwarzanie w pamięci sama w sobie po prostu nie wystarcza do osiągnięcia pełnego sukcesu. Te trzy proste kryteria dobrze tłumaczą zmienne powodzenie dostawców BI w usprawnianiu posiadanych narzędzi poprzez samo turbodoładowanie technologią „in-memory”.

Powolne działanie, mała podatność na zmiany oraz trudność użytkowania to model tradycyjny, oparty o OLAP, dający najmniejsze szanse na pełen sukces inicjatywy BI. System szybki i wydajny ale nieelastyczny i trudny w obsłudze to z dużą pewnością przepis na spektakularną (i szybką!) porażkę. Użytkownicy nielubiący korzystać z systemu, porzucą go bardzo szybko, gdy okaże się, że nie można go także dostosować w przyszłości do ich nowych potrzeb. System szybki, wydajny i elastyczny ale trudny w obsłudze przy odrobinie szczęścia skończy jako skomplikowane i zapewne bardzo kosztowne narzędzie do eksportu danych do Excela, którym użytkownicy będą woleli się posługiwać w ostatnich etapach prezentacji i analizy. Kolejna kombinacja to dobra wydajność i prostota obsługi ale nie idący z nimi w parze brak elastyczności. W takiej konfiguracji użytkownicy z czasem będą zmuszeniu do tworzenia dużej liczby raportów nadrabiających braki elastyczności modelu. Koszt utrzymania i poziom zadowolenia użytkowników nie będą najprawdopodobniej zadowalające.

Z powyższego zestawienia możliwych scenariuszy widać jak duże znaczenie poza szybkością działania, wynikającą wprost z technologii „in-memory”, mają pozostałe wymagane cechy. Elastyczność i prostotę można uzyskać przede wszystkim z jakości projektu i koncepcji narzędzia analitycznego. Dlatego obecność wszystkich wymaganych cech najłatwiej uzyskać w oprogramowaniu projektowanym od samego początku z wykorzystaniem architektury asocjacyjnych baz „in-memory”, od początku zakładającym, że jest przeznaczone przede wszystkim dla użytkownika biznesowego a nie wyłącznie dla programisty SQL.

Obserwując dostępne narzędzia i usługi BI warto bacznie przyglądać się szczególnie tym, które właśnie teraz ulegają swoistej medialnej transformacji - od koncepcji OLAP do tej nowoczesnej. Trwa swoisty marketingowy wyścig dostawców BI w kategorii systemów "najbardziej in-memory". Warto nie zadowalać się prostymi stwierdzeniami a weryfikować opisywane rozwiązania odnoszące się do „przetwarzania w pamięci” właśnie pod kątem elastyczności, prostoty, kosztów posiadania najlepiej w długi horyzoncie czasowym. Pozwoli to łatwo odróżnić rzeczywistych liderów innowacji w BI od nieudolnych naśladowców.

Marek Grzebyk, Dyrektor Zarządzający Hogart Business Intelligence
Źródło: www.businessintelligence.pl

PRZECZYTAJ RÓWNIEŻ:


Back to top