Ujarzmić dane – ale po co ich aż tyle
Katgoria: BUSINESS INTELLIGENCE / Utworzono: 15 grudzień 2011
Im więcej zasobów organizacja przechowuje w swoich zasobach, tym większe problemy napotyka. Podstawowym problemem, który dotyczy typowych serwerów plików, są ograniczenia związane z możliwościami systemu plików stosowanego w danym serwerze. [...] Oprócz wymagań związanych z szybkością przetwarzania strumienia informacji przedsiębiorstwa potrzebują narzędzi, które umożliwią analizę bardzo dużych zbiorów danych. Potrzeby biznesowe związane z analizowaniem różnych wariantów wymagają szybkiej odpowiedzi systemu. Gdy ilość zgromadzonych danych liczy się w terabajtach, tradycyjny model hurtowni korzystający z wielowymiarowych modeli OLAP działa zbyt wolno, a niekiedy w ogóle nie nadaje się do analizy podobnej wielkości danych. (za Ujarzmić firmowe dane – Computerworld.pl).Analiza danych i wyciąganie wniosków z zasady jest wnioskowaniem indukcyjnym, jest to wyciąganie wniosków na bazie posiadanych informacji, jednak problem polega na tym, że bazujemy na wiedzy już posiadanej. Innymi słowy metodami indukcyjnymi, jeżeli można próbować dowodzić rzeczy poznanych, tak nie odkryjemy rzeczy nowych… po drugie:
Głównym problemem filozoficznym związanym z rozumowaniami indukcyjnymi jest to, czy stanowią one rozumowania uzasadniające: skoro konkluzja wnioskowania indukcyjnego nie jest w pełni uzasadniona przez jej przesłanki, pojawia się problem, w jaki sposób, w jakim stopniu i czy w ogóle wnioskowania indukcyjne prowadzą do prawdziwych wniosków. Ci, którzy uznają wnioskowania indukcyjne za wnioskowania uzasadniające (zwolennicy indukcjonizmu) tłumaczą zazwyczaj stopień uzasadnienia konkluzji wnioskowania indukcyjnego za pomocą pojęcia prawdopodobieństwa logicznego. Krytyka indukcjonizmu dokonana przez dedukcjonizm (antyindukcjonizm) opiera się przede wszystkim na fakcie, że nie skonstruowano dotychczas zadowalającej odpowiedzi na pytanie, jak mierzyć to prawdopodobieństwo. (za Rozumowanie indukcyjne – Wikipedia, wolna encyklopedia).W opozycji do tej metody jest
Hipotetyzm – sposób uzasadniania twierdzeń w naukach empirycznych. Z hipotez wyprowadza się ich konsekwencje logiczne. Mając pewien zbiór konsekwencji bada się, czy nie ma w nim tautologii (ew. sprzeczności). Jeżeli twierdzenie wyprowadzone w ten sposób wnosi coś nowego do teorii, poddaje się je testowi empirycznemu (twierdzenie traktuje się jako przewidujące fakty doświadczalne). (za Hipotetyzm – Wikipedia, wolna encyklopedia).Ma on swoje źródło w:
Falsyfikacjonizm jest to zbiór procedur metodologicznych, które, w opinii autorów tego stanowiska, chcący się przyczynić do rozwoju wiedzy naukowej badacz musi stosować. Osią tego ujęcia jest przekonanie, że dla teorii naukowych nie należy szukać potwierdzenia (weryfikacji), lecz kontrprzypadków, mogących badanej teorii zaprzeczyć. Należy zatem dążyć do sfalsyfikowania teorii (wykazania jej niezgodności z doświadczeniem), a jeśli próba się nie powiedzie uznać, tymczasowo, teorię, aż do następnej próby falsyfikacji, która dla teorii skończyć się może obaleniem. (za Krytyczny racjonalizm – Wikipedia, wolna encyklopedia).Tyle wprowadzenia. I co z tego wynika? Że odkrywanie „nowych rzeczy” nie jest w stanie się dokonać na bazie analizy historii, bo skoro szukamy rzeczy nowych to historia ich nie zawiera. Falsyfikacjonim, nazywany często „naukowym badaniem”, polega na stawianiu hipotez i podejmowaniu prób ich sfalsyfikowania (wykazania ich nieprawdziwości). Dobra hipoteza – teoria – to hipoteza w postaci modelu zjawiska, które opisuje (hipoteza mówi: tak właśnie jest) oraz przykład (test) zdarzenia, które – gdyby zaistniało – obali tę hipotezę (warunek falsyfikacji).
Czyli hipotezy nie dowodzimy, musimy ją obalić by wykazać jej fałszywość ale autor hipotezy musi wskazać co potencjalnie obala jego hipotezę (twórcą tej teorii w filozofii nauki jest Karl Popper). Innymi słowy: hipoteza może mi przyjść do głowy nawet podczas wizji religijnej, nie ma to znaczenia. Ważne jest, dla jej prawdziwości, by ją opisać i wskazać warunek falsyfikacji. Hipoteza taka, jeżeli jest potwierdzana przez obserwowane zjawiska, jest prawdziwa tak długo jak długo nie zostanie sfalsyfikowana (wskazane zostanie zjawisko wyłamujące się modelowi). Najbardziej znanym i znamiennym przykładem tego podejścia jest słynne twierdzenie Fermata.
A teraz po ludzku
Modelowanie, jako narzędzie analizy, to nic innego jak właśnie tworzenie hipotez. Np. tworzę model procesów biznesowych (z reguły na bazie małej partii dokumentów rzeczywistych). Dowodem falsyfikującym ten model jest wskazanie takiego rzeczywistego dokumentu w analizowanej firmie, który nie jest obsługiwany stworzonym modelem procesu. Wskazanie takiego dokumentu lub zdarzenia obala hipotezę (model) i wymaga modyfikacji modelu procesu lub uznanie, że model jest zły (i stworzenie nowego :) ). To samo dotyczy każdego innego modelowania.
Tak więc modele rynkowe zachowań klientów, prognozy i wiele innych można budować analizując terabajty danych opisujących historię. Problem w tym, że: nie znamy prawdopodobieństwa jakie rządzi tymi zdarzeniami, tak więc nie odkryjemy tak niczego poza tym co się wydarzyło i nadal nie wiemy z jakim prawdopodobieństwem wykryte zdarzenie z historii się powtórzy (wierzymy, że się powtórzy) w (prognozowanej) przyszłości (kto nie wierzy niech sprawdzi skuteczność takich prognoz (analiza techniczna) na giełdach. Jest praktycznie zerowa, co nie przeszkadza w jej powszechnym stosowaniu.
Moim zdaniem hurtownie danych i wszelkiego typu systemy BI mogą być skuteczne jako wykrywanie „czegoś” w historii, na pewno sprawdzają się jako złożone systemy raportowania, ale nie sądzę by jakakolwiek hurtownia danych plus system BI odkryła cokolwiek nowego lub skutecznie prognozowała.
Firmy parające się statystyką, polegają na tak zwanej próbie reprezentatywnej. Analizowana jest „dobrana” mała partia danych, a nie wszystkie, wiec nie wiem skąd ten pęd do analizy wszystkich posiadanych danych, których stale przybywa.
Budowanie modeli na bazie małych partii danych jest po pierwsze wiarygodniejsze (paradoksalnie) niż proste wnioskowanie statystyczne, po drugie daje szanse odkrycia czegoś nowego. W czym problem? To drugie jest nie możliwe z pomocą deterministycznej maszyny jaką jest komputer. To wymaga człowieka, ten jednak nie daje się produkować masowo… , korporacja na nim nie zarobi.
Hm… czy przypadkiem promowanie systemów hurtowni danych, BI, pracy z terabajtami danych itp.. to nie tworzenie sobie rynku przez dostawców tych technologii?
Warto więc za każdym razem, zanim zainwestujemy w rozwiązania operujące na terabajtach danych, przemyśleć co chcemy osiągnąć. W zasadzie nie ma uzasadnienia dla trzymania wszystkich danych, ważne jest określenie jaki problem chcemy rozwiązać. Jeżeli są to problemy związane z analizą danych historycznych, badania statystyczne mogą być skuteczne, do tego poddają się automatyzacji. Jeżeli jednak problem tkwi w planowaniu zmian, prognozowaniu, odkrywaniu, polecam raczej człowieka i budowanie hipotez.
A inne analizy?
Opisany powyżej mechanizm dotyczy każdego rodzaju analizy, której celem jest zrozumienie „jak coś działa”. Analiza ogromnych ilości zebranych danych, których źródłem są tylko obserwacje i fakty to paradoksalnie najgorsza metoda badawcza. Jako system raportowania (przetwarzanie danych) sprawdza się bardzo dobrze ale tylko do tego.
Wystarczy (nomen omen) spojrzeć wstecz historii. Opis wszechświata bazujący wyłącznie na obserwacji to znany z czasów przedkopernikańskich układ geocentryczny. Jest efektem zapisów wyników obserwacji. W zasadzie rosnąca liczba tych obserwacji potwierdzała jedynie znany z tamtych czasów fałszywy model (patrz po lewej). Jest zawiły, niedający sie opisać prostymi zależnościami. Odkrycie nowej planety wymagałoby kolejnych setek obserwacji by opisać jej tor na tym rysunku.
Sytuacja zmienia się diametralnie po tym, jak Kopernik „poszedł w stronę” myślenia hipotezami. Nie zapisywał i nie porządkował pieczołowicie kolejnych bzdurnych pomiarów a szukał wytłumaczenia otrzymanych już (których zresztą mogło by być znacznie mniej). Jak wiemy Kopernik znalazł odpowiedź napytanie: jak wygląda wszechświat (teraz wiemy, że nasz to tylko jeden z wielu układów we wszechświecie). Zbudował prosty i łatwy do matematycznego (w porównaniu z tym po lewej) opisu model heliocentryczny i za jednym zamachem nie tylko wyjaśnił dotychczasowe obserwacje ale przewidział wszystkie następne.
Podobną metodę można zastosować do modelowania zjawisk gospodarczych, procesów biznesowych czy oprogramowania. Analiza przedsiębiorstwa nie musi polegać na dziesiątkach wywiadów, porządkowaniu ich treści i setkach diagramów, z których nic nie wynika. Analiza może polegać na analizie partii dokumentów, zbudowaniu modelu procesu i sprawdzeniu czy wyjaśnia inne zdarzenia w firmie. Taka analiza jest mniej kosztowna, produkuje znacznie mniej papieru, jest pozbawiona nieścisłości i nadmiaru nieprzydatnych danych. Niestety ile razy mówię o tym np. na konferencjach natychmiast większość firm doradczych wysłała by mnie na stos…
Ktoś mógłby zapytać: czy ma sens do każdego projektu angażować „naukowca”? Do każdego zapewne nie ale skoro wiemy z badań, że w projektach związanych z zarządzaniem lub dostarczaniem oprogramowania ponad 60% kosztów idzie w błoto z powodu złych analiz i projektów to sami sobie Państwo odpowiedzcie na to pytanie… bo praktyka pokazuje, że to w zasadzie zawsze jest tańsze :) , niestety widać to dopiero po zakończeniu projektu… a co z analizą danych historycznych? Podobno, jak twierdzi Hegel, historia uczy ludzi, że historia niczego ludzi nie nauczyła…
Źródło: www.it-consulting.pl
Autor: Jarosław Żeliński
Najnowsze wiadomości
Kwantowy przełom w cyberochronie - nadchodząca dekada przepisze zasady szyfrowania na nowo
Przez długi czas cyfrowe bezpieczeństwo opierało się na prostym założeniu: współczesne komputery potrzebowałyby ogromnych zasobów i wielu lat, aby złamać silne algorytmy szyfrowania. Rozwój technologii kwantowej zaczyna jednak tę regułę podważać, a eksperci przewidują, że w perspektywie 5–10 lat może nadejść „dzień zero”. Jest to moment, w którym zaawansowana maszyna kwantowa będzie w stanie przełamać większość aktualnie stosowanych zabezpieczeń kryptograficznych w czasie liczonym nie w latach, lecz w godzinach.
PSI prezentuje nową identyfikację wizualną
W ramach realizowanej strategii transformacji PSI Software SE zaprezentowała nową identyfikację wizualną. Odświeżony wizerunek w spójny sposób oddaje technologiczne zaawansowanie firmy, jej głęboką wiedzę branżową oraz silne ukierunkowanie na potrzeby klientów. Zmiany te wzmacniają pozycję PSI jako innowacyjnego lidera technologicznego w obszarze skalowalnych rozwiązań informatycznych opartych na sztucznej inteligencji i chmurze, rozwijanych z myślą o energetyce i przemyśle.
W ramach realizowanej strategii transformacji PSI Software SE zaprezentowała nową identyfikację wizualną. Odświeżony wizerunek w spójny sposób oddaje technologiczne zaawansowanie firmy, jej głęboką wiedzę branżową oraz silne ukierunkowanie na potrzeby klientów. Zmiany te wzmacniają pozycję PSI jako innowacyjnego lidera technologicznego w obszarze skalowalnych rozwiązań informatycznych opartych na sztucznej inteligencji i chmurze, rozwijanych z myślą o energetyce i przemyśle.
PROMAG S.A. rozpoczyna wdrożenie systemu ERP IFS Cloud we współpracy z L-Systems
PROMAG S.A., lider w obszarze intralogistyki, rozpoczął wdrożenie systemu ERP IFS Cloud, który ma wesprzeć dalszy rozwój firmy oraz integrację kluczowych procesów biznesowych. Projekt realizowany jest we współpracy z firmą L-Systems i obejmuje m.in. obszary finansów, produkcji, logistyki, projektów oraz serwisu, odpowiadając na rosnącą skalę i złożoność realizowanych przedsięwzięć.
F5 rozszerza portfolio bezpieczeństwa o narzędzia do ochrony systemów AI w środowiskach enterprise
F5 ogłosiło wprowadzenie dwóch nowych rozwiązań - F5 AI Guardrails oraz F5 AI Red Team - które mają odpowiedzieć na jedno z kluczowych wyzwań współczesnych organizacji: bezpieczne wdrażanie i eksploatację systemów sztucznej inteligencji na dużą skalę. Nowa oferta łączy ochronę działania modeli AI w czasie rzeczywistym z ofensy
Snowflake + OpenAI: AI bliżej biznesu
Snowflake przyspiesza wykorzystanie danych i sztucznej inteligencji w firmach, przenosząc AI z fazy eksperymentów do codziennych procesów biznesowych. Nowe rozwiązania w ramach AI Data Cloud integrują modele AI bezpośrednio z danymi, narzędziami deweloperskimi i warstwą semantyczną. Partnerstwo z OpenAI, agent Cortex Code, Semantic View Autopilot oraz rozwój Snowflake Postgres pokazują, jak budować skalowalne, bezpieczne i mierzalne wdrożenia AI w skali całej organizacji.
Najnowsze artykuły
Magazyn bez błędów? Sprawdź, jak system WMS zmienia codzienność logistyki
Współczesna logistyka wymaga nie tylko szybkości działania, lecz także maksymalnej precyzji – to właśnie te czynniki coraz częściej decydują o przewadze konkurencyjnej firm. Nawet drobne pomyłki w ewidencji stanów magazynowych, błędy przy przyjmowaniu dostaw czy nieprawidłowe rozmieszczenie towarów, mogą skutkować poważnymi stratami finansowymi i opóźnieniami w realizacji zamówień. W jaki sposób nowoczesne rozwiązania do zarządzania pomagają unikać takich sytuacji? Czym właściwie różni się tradycyjny system magazynowy od zaawansowanych rozwiązań klasy WMS (ang. Warehouse Management System)? I w jaki sposób inteligentne zarządzanie procesami magazynowymi realnie usprawnia codzienną pracę setek firm?
Migracja z SAP ECC na S4 HANA: Ryzyka, korzyści i alternatywne rozwiązania
W ostatnich latach wiele firm, które korzystają z systemu SAP ECC (Enterprise Central Component), stoi przed decyzją o przejściu na nowszą wersję — SAP S4 HANA. W obliczu końca wsparcia dla ECC w 2030 roku, temat ten staje się coraz bardziej aktualny. Przemiany technologiczne oraz rosnące oczekiwania związane z integracją nowych funkcji, jak sztuczna inteligencja (AI), skłaniają do refleksji nad tym, czy warto podjąć tak dużą zmianę w architekturze systemu. Przyjrzyjmy się głównym powodom, dla których firmy rozważają migrację do S4 HANA, ale także argumentom, które mogą przemawiać za pozostaniem przy dotychczasowym systemie ECC, przynajmniej na krótki okres.
Jak maksymalizować zyski z MTO i MTS dzięki BPSC ERP?
Zysk przedsiębiorstwa produkcyjnego zależy nie tylko od wydajności maszyn, ale przede wszystkim od precyzyjnego planowania, realnych danych i umiejętnego zarządzania procesami. Dlatego firmy, które chcą skutecznie działać zarówno w modelu Make to Stock (MTS), jak i Make to Order (MTO), coraz częściej sięgają po rozwiązania klasy ERP, takie jak BPSC ERP.
Ponad połowa cyberataków zaczyna się od błędu człowieka
Ponad 2/3 firm w Polsce odnotowała w zeszłym roku co najmniej 1 incydent naruszenia bezpieczeństwa . Według danych Unit 42, zespołu analitycznego Palo Alto Networks, aż 60% ataków rozpoczyna się od działań wymierzonych w pracowników – najczęściej pod postacią phishingu i innych form inżynierii społecznej . To pokazuje, że w systemie ochrony organizacji pracownicy są kluczowym ogniwem – i że firmy muszą nie tylko edukować, ale też konsekwentnie egzekwować zasady cyberhigieny. Warto o tym pamiętać szczególnie teraz, w październiku, gdy obchodzimy Europejski Miesiąc Cyberbezpieczeństwa.
MES - holistyczne zarządzanie produkcją
Nowoczesna produkcja wymaga precyzji, szybkości i pełnej kontroli nad przebiegiem procesów. Rosnąca złożoność zleceń oraz presja kosztowa sprawiają, że ręczne raportowanie i intuicyjne zarządzanie coraz częściej okazują się niewystarczające. Firmy szukają rozwiązań, które umożliwiają im widzenie produkcji „na żywo”, a nie z opóźnieniem kilku godzin czy dni. W tym kontekście kluczową rolę odgrywają narzędzia, które porządkują informacje i pozwalają reagować natychmiast, zamiast po fakcie.
Przeczytaj Również
Jak przyspieszyć transformację energetyczną i dekarbonizację dzięki inteligentnej integracji danych w chmurze?
Odpowiedzią jest Snowflake Energy Solutions – nowa oferta łącząca ponad 30 rozwiązań partnerskich w… / Czytaj więcej
Jak skutecznie wdrożyć Power BI w organizacji?
Wdrożenie narzędzi analitycznych w firmie to nie tylko kwestia technologii, ale także zmiany podejś… / Czytaj więcej
Czy systemy Business Intelligence nadają się do małych i średnich firm?
W świecie biznesu coraz więcej mówi się o danych. Firmy gromadzą je w ogromnych ilościach – od arku… / Czytaj więcej
Jak Business Intelligence rewolucjonizuje zarządzanie sieciami dealerskimi – rozwiązania od One Support
W branży motoryzacyjnej zmiany zachodzą szybciej niż kiedykolwiek. Dynamiczne wahania cen, rosnąca… / Czytaj więcej
Narzędzia BI dla systemów ERP: Jak wybrać odpowiednie rozwiązanie?
W ostatnim czasie dane stały się jednym z najważniejszych aktywów biznesowych. Sam system ERP pozwa… / Czytaj więcej
Business Intelligence w praktyce – jak system BI One zmienia sposób zarządzania firmą
W erze cyfrowej transformacji dane stały się najcenniejszym zasobem każdej organizacji. Ich skutecz… / Czytaj więcej


