Przejdź do głównej treści

BI in-memory nie wszystko złoto co się świeci

Katgoria: BUSINESS INTELLIGENCE / Utworzono: 12 luty 2013

BI in-memory nie wszystko złoto co się świeci

HOGART BUSINESS INTELLIGENCEDziś bez wątpienia można powiedzieć, że ostatnie lata światowego rynku Business Intelligence stały pod znakiem zasadniczej przemiany w stosowanych technologiach oraz w świadomości i poziomie oczekiwań użytkowników biznesowych. Śledząc publikacje branżowe i teksty marketingowe dostawców BI rzadkością są dziś materiały, które nie wspominałyby choć na marginesie o „in-memory”, czy trendzie Data Discovery. Znamienne jest to, że bardzo często są to wypowiedzi firm, które jeszcze kilka lat temu deprecjonowały znaczenie i możliwość szerokiego stosowania właśnie tych technologii. Ta zmiana stanowiska jest bezpośrednią konsekwencją światowego sukcesu takich produktów jak np. QlikView oraz faktu, że są one coraz częściej przyjmowane przez użytkowników BI jako nowy standard jakości oraz nowy wzorzec koncepcji systemów analitycznych w przedsiębiorstwie.

Ponadto, grono użytkowników nowego Business Intelligence rośnie w ogromnym tempie. Dla przykładu QlikView działa obecnie w ponad 25 tys. firm w 100 krajach. Nie bez znaczenia jest fakt, że do tego grona zaliczają się też największe światowe koncerny. To najlepszy dowód, że przełom już nastąpił a zmiana jest nieodwracalna. W tej sytuacji dostawcom narzędzi i usług z epoki OLAP pozostaje jedynie nie odstawać zbytnio od nowych trendów poprzez lepsze lub gorsze naśladownictwo.

W ostatnim czasie widzimy wiele informacji prasowych, artykułów, tematów konferencji branżowych poświęconych wprowadzeniu bądź planom wprowadzenia przez dostawców BI nowych produktów, modułów, funkcjonalności a prawie wszystko to spod znaku „in-memory”. Niestety coraz częściej można odnieść wrażenie, że mamy do czynienia z naśladownictwem nieudolnym bo sprowadzającym się do skopiowania tylko jednej, najbardziej dostrzegalnej cechy oryginalnej koncepcji, nie zwracając przy tym uwagi na wszystkie inne ważne cechy. Efekt bardzo często można porównać z przykrym wrażeniem rozczarowania jaki towarzyszy zakupowi taniej podróbki, która z zewnątrz wygląda jak produkt oryginalny ale po bliższym spojrzeniu ujawnia słabą jakość a czasami nawet brak podstawowej oczekiwanej funkcjonalności. W przypadku BI „in-memory” tą najbardziej widoczną, spektakularną cechą, która jest najchętniej "podrabiana" to prosty fakt przeniesienia składowania danych lub ich przetwarzania z dysków do pamięci operacyjnej. Oczywiście każdy ma prawo na swój sposób definiować termin "in-memory" (nie jest on opatentowany), ale warto sobie uświadamiać które cechy, technologie i funkcjonalności były powodem sukcesu wiodących narzędzi BI nowej generacji, a które są tylko marketingową etykietką naklejaną na tradycyjne podejście do BI. Proste przeniesienie przetwarzania danych z dysku do pamięci z pewnością przyspiesza działanie wybranych funkcji systemu. Należy tu jednak postawić dwa pytania. Czy samo przyspieszenie reakcji systemu na zapytania użytkowników daje gwarancję powodzenia projektu BI i zadowolenia użytkowników? Oraz czy zastosowana technologia BI przyspiesza cały cykl projektowania, przetwarzania i analizy danych, czy tylko daje lepszy komfort pracy użytkownika końcowego podczas gdy zasilanie i przetwarzania danych jest wciąż długotrwałe i nieelastycznie.
  • Według Jamesa Richardsona - analityka rynku BI z Gartner Group - w przepisie na nowoczesne i skuteczne platformy analityczne, czyli takie które przynoszą przełom we współczesnym BI, koniecznie muszą wyróżniać się trzy najważniejsze cechy: Wydajność rozumiana jako szybkość odpowiedzi oraz szybkość przetwarzania dużych wolumenów danych bez eskalacji wymagań sprzętowych (zapewniana przede wszystkim przez asocjacyjne bazy „in-memory” zdolne do przechowywania dużych wolumenów gęsto skompresowanych danych);
  • Elastyczność rozumiana jako bardzo wysoka zdolność narzędzia do szybkiego zaadoptowania zmian wymagań i przebudowy zarówno sposobu wizualizacji danych jak i modelu pobierania i przetwarzania danych. Elastyczność powinna występować zarówno w fazie projektowej jak i w trakcie produkcyjnego użytkowania systemu umożliwiając stosowanie zwinnych metodyk wdrożeniowych, tzw. agile; • Prostota rozumiana jako łatwość użytkowania i projektowania systemu, przejrzystość i atrakcyjność interfejsu graficznego, nakierowanie na użytkownika biznesowego, m.in. dostosowanie do wdrożeń tzw. self-service;

Pominięcie któregokolwiek z tych „sekretnych" składników powoduje, że cała „magiczna" mikstura nie działa. Duża szybkość działania aplikacji jaką daje przetwarzanie w pamięci sama w sobie po prostu nie wystarcza do osiągnięcia pełnego sukcesu. Te trzy proste kryteria dobrze tłumaczą zmienne powodzenie dostawców BI w usprawnianiu posiadanych narzędzi poprzez samo turbodoładowanie technologią „in-memory”.

Powolne działanie, mała podatność na zmiany oraz trudność użytkowania to model tradycyjny, oparty o OLAP, dający najmniejsze szanse na pełen sukces inicjatywy BI. System szybki i wydajny ale nieelastyczny i trudny w obsłudze to z dużą pewnością przepis na spektakularną (i szybką!) porażkę. Użytkownicy nielubiący korzystać z systemu, porzucą go bardzo szybko, gdy okaże się, że nie można go także dostosować w przyszłości do ich nowych potrzeb. System szybki, wydajny i elastyczny ale trudny w obsłudze przy odrobinie szczęścia skończy jako skomplikowane i zapewne bardzo kosztowne narzędzie do eksportu danych do Excela, którym użytkownicy będą woleli się posługiwać w ostatnich etapach prezentacji i analizy. Kolejna kombinacja to dobra wydajność i prostota obsługi ale nie idący z nimi w parze brak elastyczności. W takiej konfiguracji użytkownicy z czasem będą zmuszeniu do tworzenia dużej liczby raportów nadrabiających braki elastyczności modelu. Koszt utrzymania i poziom zadowolenia użytkowników nie będą najprawdopodobniej zadowalające.

Z powyższego zestawienia możliwych scenariuszy widać jak duże znaczenie poza szybkością działania, wynikającą wprost z technologii „in-memory”, mają pozostałe wymagane cechy. Elastyczność i prostotę można uzyskać przede wszystkim z jakości projektu i koncepcji narzędzia analitycznego. Dlatego obecność wszystkich wymaganych cech najłatwiej uzyskać w oprogramowaniu projektowanym od samego początku z wykorzystaniem architektury asocjacyjnych baz „in-memory”, od początku zakładającym, że jest przeznaczone przede wszystkim dla użytkownika biznesowego a nie wyłącznie dla programisty SQL.

Obserwując dostępne narzędzia i usługi BI warto bacznie przyglądać się szczególnie tym, które właśnie teraz ulegają swoistej medialnej transformacji - od koncepcji OLAP do tej nowoczesnej. Trwa swoisty marketingowy wyścig dostawców BI w kategorii systemów "najbardziej in-memory". Warto nie zadowalać się prostymi stwierdzeniami a weryfikować opisywane rozwiązania odnoszące się do „przetwarzania w pamięci” właśnie pod kątem elastyczności, prostoty, kosztów posiadania najlepiej w długi horyzoncie czasowym. Pozwoli to łatwo odróżnić rzeczywistych liderów innowacji w BI od nieudolnych naśladowców.

Marek Grzebyk, Dyrektor Zarządzający Hogart Business Intelligence
Źródło: www.businessintelligence.pl

Najnowsze wiadomości

Kwantowy przełom w cyberochronie - nadchodząca dekada przepisze zasady szyfrowania na nowo
Przez długi czas cyfrowe bezpieczeństwo opierało się na prostym założeniu: współczesne komputery potrzebowałyby ogromnych zasobów i wielu lat, aby złamać silne algorytmy szyfrowania. Rozwój technologii kwantowej zaczyna jednak tę regułę podważać, a eksperci przewidują, że w perspektywie 5–10 lat może nadejść „dzień zero”. Jest to moment, w którym zaawansowana maszyna kwantowa będzie w stanie przełamać większość aktualnie stosowanych zabezpieczeń kryptograficznych w czasie liczonym nie w latach, lecz w godzinach.
PSI prezentuje nową identyfikację wizualną
psilogoW ramach realizowanej strategii transformacji PSI Software SE zaprezentowała nową identyfikację wizualną. Odświeżony wizerunek w spójny sposób oddaje technologiczne zaawansowanie firmy, jej głęboką wiedzę branżową oraz silne ukierunkowanie na potrzeby klientów. Zmiany te wzmacniają pozycję PSI jako innowacyjnego lidera technologicznego w obszarze skalowalnych rozwiązań informatycznych opartych na sztucznej inteligencji i chmurze, rozwijanych z myślą o energetyce i przemyśle.
PROMAG S.A. rozpoczyna wdrożenie systemu ERP IFS Cloud we współpracy z L-Systems
PROMAG S.A., lider w obszarze intralogistyki, rozpoczął wdrożenie systemu ERP IFS Cloud, który ma wesprzeć dalszy rozwój firmy oraz integrację kluczowych procesów biznesowych. Projekt realizowany jest we współpracy z firmą L-Systems i obejmuje m.in. obszary finansów, produkcji, logistyki, projektów oraz serwisu, odpowiadając na rosnącą skalę i złożoność realizowanych przedsięwzięć.
F5 rozszerza portfolio bezpieczeństwa o narzędzia do ochrony systemów AI w środowiskach enterprise
F5 ogłosiło wprowadzenie dwóch nowych rozwiązań - F5 AI Guardrails oraz F5 AI Red Team - które mają odpowiedzieć na jedno z kluczowych wyzwań współczesnych organizacji: bezpieczne wdrażanie i eksploatację systemów sztucznej inteligencji na dużą skalę. Nowa oferta łączy ochronę działania modeli AI w czasie rzeczywistym z ofensy
Snowflake + OpenAI: AI bliżej biznesu
Snowflake przyspiesza wykorzystanie danych i sztucznej inteligencji w firmach, przenosząc AI z fazy eksperymentów do codziennych procesów biznesowych. Nowe rozwiązania w ramach AI Data Cloud integrują modele AI bezpośrednio z danymi, narzędziami deweloperskimi i warstwą semantyczną. Partnerstwo z OpenAI, agent Cortex Code, Semantic View Autopilot oraz rozwój Snowflake Postgres pokazują, jak budować skalowalne, bezpieczne i mierzalne wdrożenia AI w skali całej organizacji.



Najnowsze artykuły

Magazyn bez błędów? Sprawdź, jak system WMS zmienia codzienność logistyki
SENTEWspółczesna logistyka wymaga nie tylko szybkości działania, lecz także maksymalnej precyzji – to właśnie te czynniki coraz częściej decydują o przewadze konkurencyjnej firm. Nawet drobne pomyłki w ewidencji stanów magazynowych, błędy przy przyjmowaniu dostaw czy nieprawidłowe rozmieszczenie towarów, mogą skutkować poważnymi stratami finansowymi i opóźnieniami w realizacji zamówień. W jaki sposób nowoczesne rozwiązania do zarządzania pomagają unikać takich sytuacji? Czym właściwie różni się tradycyjny system magazynowy od zaawansowanych rozwiązań klasy WMS (ang. Warehouse Management System)? I w jaki sposób inteligentne zarządzanie procesami magazynowymi realnie usprawnia codzienną pracę setek firm?
Migracja z SAP ECC na S4 HANA: Ryzyka, korzyści i alternatywne rozwiązania
W ostatnich latach wiele firm, które korzystają z systemu SAP ECC (Enterprise Central Component), stoi przed decyzją o przejściu na nowszą wersję — SAP S4 HANA. W obliczu końca wsparcia dla ECC w 2030 roku, temat ten staje się coraz bardziej aktualny. Przemiany technologiczne oraz rosnące oczekiwania związane z integracją nowych funkcji, jak sztuczna inteligencja (AI), skłaniają do refleksji nad tym, czy warto podjąć tak dużą zmianę w architekturze systemu. Przyjrzyjmy się głównym powodom, dla których firmy rozważają migrację do S4 HANA, ale także argumentom,  które mogą przemawiać za pozostaniem przy dotychczasowym systemie ECC, przynajmniej na krótki okres.
Jak maksymalizować zyski z MTO i MTS dzięki BPSC ERP?
BPSC FORTERROZysk przedsiębiorstwa produkcyjnego zależy nie tylko od wydajności maszyn, ale przede wszystkim od precyzyjnego planowania, realnych danych i umiejętnego zarządzania procesami. Dlatego firmy, które chcą skutecznie działać zarówno w modelu Make to Stock (MTS), jak i Make to Order (MTO), coraz częściej sięgają po rozwiązania klasy ERP, takie jak BPSC ERP.
Ponad połowa cyberataków zaczyna się od błędu człowieka
Ponad 2/3 firm w Polsce odnotowała w zeszłym roku co najmniej 1 incydent naruszenia bezpieczeństwa . Według danych Unit 42, zespołu analitycznego Palo Alto Networks, aż 60% ataków rozpoczyna się od działań wymierzonych w pracowników – najczęściej pod postacią phishingu i innych form inżynierii społecznej . To pokazuje, że w systemie ochrony organizacji pracownicy są kluczowym ogniwem – i że firmy muszą nie tylko edukować, ale też konsekwentnie egzekwować zasady cyberhigieny. Warto o tym pamiętać szczególnie teraz, w październiku, gdy obchodzimy Europejski Miesiąc Cyberbezpieczeństwa.
MES - holistyczne zarządzanie produkcją
Nowoczesna produkcja wymaga precyzji, szybkości i pełnej kontroli nad przebiegiem procesów. Rosnąca złożoność zleceń oraz presja kosztowa sprawiają, że ręczne raportowanie i intuicyjne zarządzanie coraz częściej okazują się niewystarczające. Firmy szukają rozwiązań, które umożliwiają im widzenie produkcji „na żywo”, a nie z opóźnieniem kilku godzin czy dni. W tym kontekście kluczową rolę odgrywają narzędzia, które porządkują informacje i pozwalają reagować natychmiast, zamiast po fakcie.

Przeczytaj Również

Real-Time Intelligence – od trendu do biznesowego must-have

Sposób prowadzenia działalności gospodarczej dynamicznie się zmienia. Firmy muszą stale dostosowywa… / Czytaj więcej

EPM – co to jest? Czy jest alternatywą dla BI?

Nowoczesne systemy BI i EPM dostarczają wiedzy potrzebnej do efektywnego zarządzania firmą. Czy zna… / Czytaj więcej

W jaki sposób firmy zwiększają swoją odporność na zmiany?

Do zwiększenia odporności na zmiany, konieczna jest pełna kontrola nad codziennymi procesami zapewn… / Czytaj więcej

Dlaczego systemy kontrolingowe są potrzebne współczesnym firmom?

Narzędzia Corporate Performance Management (CPM) pozwalają na przyśpieszenie tempa podejmowania dec… / Czytaj więcej

Hurtownie danych – funkcje i znaczenie dla BI

Przepisów na sukces biznesu jest na rynku wiele. Nie ulega jednak wątpliwości, że jednym z kluczowy… / Czytaj więcej

Po co dane w handlu? Okazuje się, że ich analityka może dać nawet 30 proc. większe zyski!

Jak wynika z badania firmy doradczej Capgemni, producenci FMCG oraz firmy związane z handlem detali… / Czytaj więcej