W 2017 roku analityka Big Data nie zwolni tempa
Katgoria: BUSINESS INTELLIGENCE / Utworzono: 29 grudzień 2016
W 2017 roku analityka Big Data nie zwolni tempa
Firmy specjalizujące się w analityce Big Data kończą 2016 rok nad kreską. Zdaniem IDC wzrósł w tym roku odsetek danych realnie wykorzystywanych przez przedsiębiorstwa: aktualnie to już około 30 proc. W górę poszła również wartość globalnego rynku danych i analityki biznesowej, który wycenia się już na poziomie 130 mld dolarów. To o ponad 18 mld dolarów więcej niż w roku ubiegłym. W kolejnych latach rynek będzie rósł w tempie dwucyfrowym, a w 2020 roku przekroczy próg 203 mld dolarów. Branża ma powody do zadowolenia, ale nie zamierza spocząć na laurach. Według prognoz najbliższe 12 miesięcy może okazać się dla niej jeszcze lepsze. Analitykę Big Data zdominuje 5 trendów: zwrot ku chmurze zamiast rozwiązań on-premise; rosnąca rola Internetu Rzeczy; walka firm z dark data i orphaned data; wzbogacanie danymi systemów Business Intelligence, CRM i ERP oraz rosnące inwestycje na analitykę predyktywną i preskryptywną.
Big Data w 2016 roku
Być może nigdy przedtem nie mówiło się w mediach o Big Data i analizie danych tak wiele, jak właśnie w 2016 roku. To właśnie w ciągu ostatnich 12 miesięcy liczba danych w Sieci po raz pierwszy w historii przekroczyła zawrotny próg 10 Zettabajtów. Z roku na rok w Internecie przybywa średnio 40 proc. nowych danych. Firmy chcą je rozszyfrować, zrozumieć i spieniężyć. Zależy im nie tylko na wykorzystaniu własnych zasobów cyfrowych do budowania swojej pozycji na rynku, lecz również szukają dróg monetyzacji dla swoich danych. Big Data stopniowo staje się biznesową walutą, na którą firmy chcą wymieniać swój kapitał.
Według badań IDG Enterprise 2016 Data & Analytics Research, w mijającym roku firmy inwestowały w narzędzia do analityki danych głównie z myślą o dwóch celach biznesowych: poprawie jakości systemów CRM, czyli usprawnieniu zarządzania relacjami z klientem (55 proc.) oraz zwiększeniu koncentracji biznesu na danych i możliwościach ich wykorzystania w przedsiębiorstwie (tzw. data-driven business). Co ciekawe: aż 78 proc. firm stwierdziło, że Big Data ma największy potencjał do przeobrażenia ich modelu biznesowego w ciągu najbliższego roku do 3 lat.
Jak z kolei wynika z badań przeprowadzonych przez Forrester, do końca 2016 roku firmy wykorzystujące analitykę danych w swoich procesach biznesowych zarobią dzięki temu ponad 400 mld dolarów. Do 2020 roku ich zysk sięgnie już ponad 1,2 bln dolarów. Ten globalny trend wpływa również na sytuację polskich firm. Papierkiem lakmusowym w tym obszarze jest choćby rozwój i kurs giełdowy warszawskiej spółki Cloud Technologies, która zaopatruje w dane firmy z branży marketingu internetowego jak również coraz więcej podmiotów z innych segmentów rynku. W 2016 roku warszawska spółka wyrosła na największą hurtownię danych w Europie. Przetwarza już blisko 4 mld profili internautów. Taki wolumen analizowanych informacji sytuuje ją również w gronie największych hurtowni Big Data na świecie. Warto odnotować, że to właśnie firma zajmująca się analityką danych kolejny rok z rzędu zaliczana jest do bluechipów giełdy NewConnect: w ciągu 3 kwartałów 2016 roku wypracowała 32,42 mln zł przychodów ze sprzedaży oraz 12,95 mln zł zysku netto. Oznacza to wzrost odpowiednio o 39,92% i 22,98% w ujęciu rocznym.
W 2016 roku wiele firm odkryło potencjał drzemiący w analityce Big Data i zaczęło postrzegać dane jako strategiczny zasób przedsiębiorstwa. Coraz większą uwagę biznes zaczął przywiązywać do monetyzacji danych, którą firma Deloitte określiła jako kluczowy trend w 2016 roku oraz w najbliższych latach. Monetyzacja nie należy jednak do łatwych procesów. Głównym problemem z nią związanym jest ocena przydatności i wiarygodności zasobów danych, także tych pochodzących ze źródeł zewnętrznych, których do tej pory przedsiębiorstwa w ogóle nie brały pod uwagę. Problemy z monetyzacją danych zgłaszało w 2016 roku aż 58 proc. przedsiębiorstw, przebadanych przez firmę doradczą KPMG. Jednocześnie blisko połowa respondentów zwracała uwagę na problemy z dostępnością odpowiednich danych. Innymi słowy: firmom coraz trudniej jest odnaleźć się w cyfrowym potopie danych. Tymczasem w kolejnych latach liczba danych będzie jeszcze narastać.
Trend 1: 2017 – rok w chmurze?
Produkcja danych w 2017 roku nie zwolni tempa. Firma analityczna Oracle szacuje, że wolumen Big Data wzrośnie w tym roku o kolejne 5 Zettabajtów danych, a liczba danych w Sieci osiągnie pułap 15 ZB. Tymczasem już teraz firmy mają trudności z samodzielnym zarządzaniem cyfrowymi strumieniami Big Data. Ich systemy BI, ERP czy CRM nie posiadają tak wielkiej mocy obliczeniowej, by móc samemu przeanalizować tak wielkie zbiory danych. Dlatego przedsiębiorstwa będą zmierzać w kierunku chmury. Jak twierdzi firma IDC w swoich prognozach zawartych w FutureScape, do 2020 roku wydatki firm na analitykę Big Data i technologie związane z analityką danych będą rosły w tempie 4,5-krotnie szybszym, niż na stacjonarne rozwiązania typu on-premise.
Firma analityczna Gartner określa tę przemianę modelu biznesowego z dotychczasowych rozwiązań stacjonarnych (on-premise) jako „cloud shift”, czyli zwrot przedsiębiorstw w kierunku chmury. Wedle Gartnera globalne wydatki przedsiębiorstw na cloud computing w 2016 roku sięgnęły 111 mld dolarów. W ciągu najbliższych 4 lat niemalże się podwoją, by w 2020 roku sięgnąć 216 mld dolarów.
Trend 2: Internet Rzeczy – Internet danych
W nadchodzących latach ważną rolę odegra Internet Rzeczy (IoT). Według szacunków IDC w 2016 roku na globalnym rynku było ponad 13 mld smart-przedmiotów, dysponujących autonomicznym dostępem do sieci, czyli posiadających własny adres IP. W 2020 roku takich urządzeń będzie już blisko 30 mld. To niemal cztery razy więcej, niż wyniesie populacja ówczesnego świata. Jednak nie tyle liczba samych urządzeń jest tu istotna, co wielkość generowanych przez nie danych.
Trend 3: dark data i orphaned data – dwa wyzwania na 2017 rok
W 2017 roku biznes będzie zmuszony stawić czoła danym, które do tej pory nie były wykorzystywane przez firmy albo ze względu na trudności z oszacowaniem ich potencjału (to tzw. dark data), albo były one tak pofragmentowane, że nie dawały pełnego obrazu sytuacji (to z kolei tzw. „orphaned data”, czyli „dane osierocone”). Ten przymus wynika z faktu przepełnienia firmowych serwerów danymi, których przedsiębiorstwo nie wykorzystuje, a za których utrzymanie płaci. Według Data Geonomics Index aż 41 proc. danych globalnych przedsiębiorstw nie było modyfikowanych od ostatnich trzech lat. Z kolei 12 proc. danych w ciągu siedmiu minionych lat nigdy nie zostało nawet otwartych. 33 proc. zbieranych przez firmy danych klasyfikuje się jako ROT, czyli Redundant, Obsolete or Trivial: zbędne, przestarzałe lub nieistotne.
Orphaned data to z kolei pojedyncze, wyrwane z kontekstu informacje, które nie zostały umieszczone w szerszym ekosystemie cyfrowym, wskutek czego trudno jest ocenić ich biznesową przydatność. Takie dane zajmują miejsce na firmowych serwerach i są mniej cenne niż dane występujące w jakimś łańcuchu powiązań. Według Vanity Technologies „osierocone dane” zajmują na serwerach firmy o około 222 proc. więcej przestrzeni niż pozostałe dane. Managerowie IT zatrzymują takie dane na firmowych serwerach, wierząc, że im większą wagę ma taki plik, tym więcej kryje się za nim cennych informacji, która uda się kiedyś połączyć z innymi.
Trend 4: data enrichment
Kolejnym trendem AD 2017 ma być zasilanie systemów firmowych danymi zewnętrznymi typu third party. Takie działanie określa się jako „data enrichment”. Dzięki niemu firma zyskuje możliwość przetestowania skuteczności zebranych przez siebie informacji, które zostały uznane za tzw. „hot data”, czyli dane najważniejsze dla firmy, po które sięga ona z największą częstotliwością) oraz oceny ich przydatności w najbliższym czasie.
Trend 5: Analityka predyktywna i preskryptwna
Biznes musi dziś zrozumieć nie tylko to, „co się dzieje” oraz „jak się dzieje”, lecz również to, „co będzie się działo” w najbliższych miesiącach, a także „jak sprawić, by coś się wydarzyło”. W tym zaś pomocne okażą się odpowiednio: analityka predyktywna oraz analityka preskryptywna. Ta pierwsza służy przewidywaniu przyszłych scenariuszy rozwoju rynku i zachowań konsumentów oraz firm. Ta druga natomiast dostarcza wiedzy, jak te zachowania modelować oraz wpływać na kształtowanie pożądanych przez firmę postaw. Według badań firmy analitycznej Gartner zawartych w raporcie „100 Data and Analytics Predictions Through 2020”, aż 40 proc. firm zdecyduje się zainwestować w najbliższych latach w analitykę predyktywną i preskryptywną.
Big Data w 2017: ewolucja zamiast rewolucji
Rok 2017 w analityce Big Data nie przyniesie zatem ze sobą wielkiej rewolucji. Będziemy raczej obserwować ewolucję obecnych trendów technologicznych. Z jednej strony firmy będą musiały zmierzyć się z cyfrowymi problemami, w które część z nich popadła wskutek nieefektywnej polityki zarządzania danymi. Z drugiej strony – wzrośnie znaczenie danych typu 3rd party, gromadzonych i przetwarzanych przez wyspecjalizowane w tym firmy. Według badań Gartnera w 2017 roku około 30 proc. danych, jakimi będą dysponowały przedsiębiorstwa, będzie pochodziło z zewnętrznych hurtowni Big Data. Do głosu dojdą również technologie kognitywne, np. uczenie maszynowe, dzięki którym część procesów analitycznych, wykonywanych dotychczas odręcznie, zostanie zautomatyzowana dzięki zastosowaniu algorytmów. Zasadniczo jednak nie należy oczekiwać, że rynek analityki danych w 2017 roku przejdzie jakąś diametralną przemianę. Ta przemiana bowiem już się dokonała. Analityka Big Data przestała być dla firm technologiczną egzotyką i przejściową modą. Teraz przyszedł czas na to, by wycisnąć z niej wszystkie biznesowe soki i wprowadzić firmę na cyfrowe tory.
Być może nigdy przedtem nie mówiło się w mediach o Big Data i analizie danych tak wiele, jak właśnie w 2016 roku. To właśnie w ciągu ostatnich 12 miesięcy liczba danych w Sieci po raz pierwszy w historii przekroczyła zawrotny próg 10 Zettabajtów. Z roku na rok w Internecie przybywa średnio 40 proc. nowych danych. Firmy chcą je rozszyfrować, zrozumieć i spieniężyć. Zależy im nie tylko na wykorzystaniu własnych zasobów cyfrowych do budowania swojej pozycji na rynku, lecz również szukają dróg monetyzacji dla swoich danych. Big Data stopniowo staje się biznesową walutą, na którą firmy chcą wymieniać swój kapitał.
Według badań IDG Enterprise 2016 Data & Analytics Research, w mijającym roku firmy inwestowały w narzędzia do analityki danych głównie z myślą o dwóch celach biznesowych: poprawie jakości systemów CRM, czyli usprawnieniu zarządzania relacjami z klientem (55 proc.) oraz zwiększeniu koncentracji biznesu na danych i możliwościach ich wykorzystania w przedsiębiorstwie (tzw. data-driven business). Co ciekawe: aż 78 proc. firm stwierdziło, że Big Data ma największy potencjał do przeobrażenia ich modelu biznesowego w ciągu najbliższego roku do 3 lat.
Jak z kolei wynika z badań przeprowadzonych przez Forrester, do końca 2016 roku firmy wykorzystujące analitykę danych w swoich procesach biznesowych zarobią dzięki temu ponad 400 mld dolarów. Do 2020 roku ich zysk sięgnie już ponad 1,2 bln dolarów. Ten globalny trend wpływa również na sytuację polskich firm. Papierkiem lakmusowym w tym obszarze jest choćby rozwój i kurs giełdowy warszawskiej spółki Cloud Technologies, która zaopatruje w dane firmy z branży marketingu internetowego jak również coraz więcej podmiotów z innych segmentów rynku. W 2016 roku warszawska spółka wyrosła na największą hurtownię danych w Europie. Przetwarza już blisko 4 mld profili internautów. Taki wolumen analizowanych informacji sytuuje ją również w gronie największych hurtowni Big Data na świecie. Warto odnotować, że to właśnie firma zajmująca się analityką danych kolejny rok z rzędu zaliczana jest do bluechipów giełdy NewConnect: w ciągu 3 kwartałów 2016 roku wypracowała 32,42 mln zł przychodów ze sprzedaży oraz 12,95 mln zł zysku netto. Oznacza to wzrost odpowiednio o 39,92% i 22,98% w ujęciu rocznym.
W 2016 roku wiele firm odkryło potencjał drzemiący w analityce Big Data i zaczęło postrzegać dane jako strategiczny zasób przedsiębiorstwa. Coraz większą uwagę biznes zaczął przywiązywać do monetyzacji danych, którą firma Deloitte określiła jako kluczowy trend w 2016 roku oraz w najbliższych latach. Monetyzacja nie należy jednak do łatwych procesów. Głównym problemem z nią związanym jest ocena przydatności i wiarygodności zasobów danych, także tych pochodzących ze źródeł zewnętrznych, których do tej pory przedsiębiorstwa w ogóle nie brały pod uwagę. Problemy z monetyzacją danych zgłaszało w 2016 roku aż 58 proc. przedsiębiorstw, przebadanych przez firmę doradczą KPMG. Jednocześnie blisko połowa respondentów zwracała uwagę na problemy z dostępnością odpowiednich danych. Innymi słowy: firmom coraz trudniej jest odnaleźć się w cyfrowym potopie danych. Tymczasem w kolejnych latach liczba danych będzie jeszcze narastać.
Trend 1: 2017 – rok w chmurze?
Produkcja danych w 2017 roku nie zwolni tempa. Firma analityczna Oracle szacuje, że wolumen Big Data wzrośnie w tym roku o kolejne 5 Zettabajtów danych, a liczba danych w Sieci osiągnie pułap 15 ZB. Tymczasem już teraz firmy mają trudności z samodzielnym zarządzaniem cyfrowymi strumieniami Big Data. Ich systemy BI, ERP czy CRM nie posiadają tak wielkiej mocy obliczeniowej, by móc samemu przeanalizować tak wielkie zbiory danych. Dlatego przedsiębiorstwa będą zmierzać w kierunku chmury. Jak twierdzi firma IDC w swoich prognozach zawartych w FutureScape, do 2020 roku wydatki firm na analitykę Big Data i technologie związane z analityką danych będą rosły w tempie 4,5-krotnie szybszym, niż na stacjonarne rozwiązania typu on-premise.
Firmy będą analizować jeszcze więcej danych. I będą to robić jeszcze szybciej, niż miało to miejsce dotychczas. Coraz częściej przedsiębiorcy będą też sięgać po analitykę danych w formie usługi, czyli Big Data as-a-Service. IDC podaje, że aktualnie już około 70 proc. dużych firm korzysta z danych o użytkownikach gromadzonych i przetwarzanych w modelu cloud computing. To właśnie ten trend IDC wymieniało jako najważniejszy w mijającym roku. I podtrzymuje prognozę na kolejne lata twierdząc, że do końca 2019 roku już wszystkie duże organizacje będą korzystać z danych z zewnętrznych hurtowni Big Data – mówi Piotr Prajsnar, CEO Cloud Technologies.Przetwarzanie i przechowywanie danych w chmurze, a nie serwerach firmowych, jest dla firmy bardziej opłacalne i bezpieczniejsze. Przedsiębiorstwa mają niekiedy poważne trudności z przeniesieniem swoich danych do zewnętrznych centrów. Są one związane z obawami natury prawnej (kwestie prywatności), ale też – czysto finansowej. Czasami wolumen zgromadzonych przez firmy danych jest też na tyle duży, że ich relokacja na zewnętrzne, nie-firmowe serwery, spowodowałaby dysproporcję pomiędzy kosztami takiego przesunięcia, a jego benefitami. W przypadku korzystania z danych w chmurze przedsiębiorcy takich trudności po prostu nie mają.
Firma analityczna Gartner określa tę przemianę modelu biznesowego z dotychczasowych rozwiązań stacjonarnych (on-premise) jako „cloud shift”, czyli zwrot przedsiębiorstw w kierunku chmury. Wedle Gartnera globalne wydatki przedsiębiorstw na cloud computing w 2016 roku sięgnęły 111 mld dolarów. W ciągu najbliższych 4 lat niemalże się podwoją, by w 2020 roku sięgnąć 216 mld dolarów.
Trend 2: Internet Rzeczy – Internet danych
W nadchodzących latach ważną rolę odegra Internet Rzeczy (IoT). Według szacunków IDC w 2016 roku na globalnym rynku było ponad 13 mld smart-przedmiotów, dysponujących autonomicznym dostępem do sieci, czyli posiadających własny adres IP. W 2020 roku takich urządzeń będzie już blisko 30 mld. To niemal cztery razy więcej, niż wyniesie populacja ówczesnego świata. Jednak nie tyle liczba samych urządzeń jest tu istotna, co wielkość generowanych przez nie danych.
Istota Internet of Things, który już teraz opisuje się jako „internet przyszłości”, tkwi nie tyle w samych urządzeniach, ile w drzemiącym w nich potencjale, jakimi są gromadzone i wysyłane przez nie dane. Jeśli w najbliższych latach firmom uda się okiełznać wielkie zbiory danych generowane przez smart-urządzenia, to IoT stanie się jedną z głównych sił napędowych naszej cyfrowej epoki. O jak wielkich danych mówimy? Firma Cisco w raporcie Global Cloud Index Study twierdzi, że inteligentne przedmioty podpięte do Sieci w 2018 roku mają wytwarzać już ponad 400 Zettabajtów danych rocznie. Dlatego nie mam wątpliwości, że to właśnie Internet Rzeczy postawi ostateczną pieczątkę na „datyzacji” czy „cyfryzacji biznesu” – mówi Piotr Prajsnar, CEO Cloud Technologies.Imponująco przedstawiają się również wzrosty IoT na w Polsce. W raporcie „Worldwide IoT Spending Guide by Vertical” czytamy, że wartość polskiego rynku IoT, która w 2015 roku wyniosła 1,5 mld USD, ale już w 2018 roku podwoi się, sięgając 3,1 mld USD.
Trend 3: dark data i orphaned data – dwa wyzwania na 2017 rok
W 2017 roku biznes będzie zmuszony stawić czoła danym, które do tej pory nie były wykorzystywane przez firmy albo ze względu na trudności z oszacowaniem ich potencjału (to tzw. dark data), albo były one tak pofragmentowane, że nie dawały pełnego obrazu sytuacji (to z kolei tzw. „orphaned data”, czyli „dane osierocone”). Ten przymus wynika z faktu przepełnienia firmowych serwerów danymi, których przedsiębiorstwo nie wykorzystuje, a za których utrzymanie płaci. Według Data Geonomics Index aż 41 proc. danych globalnych przedsiębiorstw nie było modyfikowanych od ostatnich trzech lat. Z kolei 12 proc. danych w ciągu siedmiu minionych lat nigdy nie zostało nawet otwartych. 33 proc. zbieranych przez firmy danych klasyfikuje się jako ROT, czyli Redundant, Obsolete or Trivial: zbędne, przestarzałe lub nieistotne.
W efekcie wiele takich danych jest po prostu sztucznie utrzymywanych, zajmując tylko miejsce na firmowych serwerach. W nadchodzącym roku biznes będzie musiał się z nimi zmierzyć i będzie miał dwa wyjścia: albo wyrzuci je do kosza, albo sprawdzi ich realną wartość poprzez integrację z danymi z zewnętrznych platform DMP (Data Management Platforms). Tylko w ten sposób biznes będzie mógł stwierdzić: czy ma pod ręką dane wartościowe i użyteczne, czy też są to tylko cyfrowe przeżytki, których firma bez żalu może się pozbyć. Myślę, że 2017 rok pod tym względem przyniesie już konkretne rozstrzygnięcia i firmy podejmą trud zbadania zawartości i przydatności dark data oraz orphaned data – mówi Piotr Prajsnar, CEO Cloud Technologies.Dark Data można określić trojako. Po pierwsze – są to dane, z których istnienia przedsiębiorstwo w ogóle nie zdaje sobie sprawy, więc ani ich nie gromadzi, ani nie przetwarza. Po drugie – mogą to być dane, o których przedsiębiorstwo wie i je gromadzi, lecz nie ma pojęcia, jak je przetworzyć. Po trzecie – to również dane, o których istnieniu przedsiębiorstwo wie i nawet dysponuje narzędziami do ich analizy, lecz jej nie podejmuje, ponieważ uznaje ją za zbyt kosztowną lub obawia się, że jej rezultaty będą niewspółmierne z nakładem pracy, jaki trzeba było w nią włożyć. Problem jest poważny, ponieważ według szacunków IDC około 80-90 proc. wszystkich danych w Internecie to obecnie dark data.
Orphaned data to z kolei pojedyncze, wyrwane z kontekstu informacje, które nie zostały umieszczone w szerszym ekosystemie cyfrowym, wskutek czego trudno jest ocenić ich biznesową przydatność. Takie dane zajmują miejsce na firmowych serwerach i są mniej cenne niż dane występujące w jakimś łańcuchu powiązań. Według Vanity Technologies „osierocone dane” zajmują na serwerach firmy o około 222 proc. więcej przestrzeni niż pozostałe dane. Managerowie IT zatrzymują takie dane na firmowych serwerach, wierząc, że im większą wagę ma taki plik, tym więcej kryje się za nim cennych informacji, która uda się kiedyś połączyć z innymi.
Trend 4: data enrichment
Kolejnym trendem AD 2017 ma być zasilanie systemów firmowych danymi zewnętrznymi typu third party. Takie działanie określa się jako „data enrichment”. Dzięki niemu firma zyskuje możliwość przetestowania skuteczności zebranych przez siebie informacji, które zostały uznane za tzw. „hot data”, czyli dane najważniejsze dla firmy, po które sięga ona z największą częstotliwością) oraz oceny ich przydatności w najbliższym czasie.
Data enrichment to wzbogacanie zasobu danych zgromadzonych przez firmę, czyli tzw. 1st party data, danymi pochodzącymi z zewnętrznych źródeł, czyli danymi typu 3rd party, które przetwarzają zewnętrzne hurtownie Big Data. Dzięki nim firmy mogą zweryfikować aktualność i przydatność swoich informacji. Dane typu 3rd party dostarczają przedsiębiorstwom często unikalnych informacji biznesowych, pozwalających na rozbudowanie wiedzy o kliencie i jego zachowaniach, preferencjach i intencjach zakupowych, a także na uzyskanie wartościowych insightów. Umożliwiają także zdiagnozowanie bolączek w wewnętrznym rytmie pracy firmy, które dzięki temu można szybko naprawić. Integracja systemów CRM czy ERP firm z danymi z zewnętrznych źródeł umożliwia firmom nie tylko lepsze rozpoznanie profilu klienta i uzyskanie jego 360-stopniowej oceny. Daje również możliwość dotarcia do nowych klientów, zwłaszcza tych, którzy będą najbliżsi cyfrowemu portretowi najlepszego klienta przedsiębiorstwa – tłumaczy Piotr Prajsnar, CEO Cloud Technologies.Wzbogacanie danymi wewnętrznych systemów Business Intelligence w firmach wiąże się z jeszcze jedną kwestią, a mianowicie: jakością danych. W kolejnych latach biznes będzie przywiązywał do niej znacznie większą uwagę niż obecnie. Firmy stopniowo wyrastają już z przekonania, że liczy się tylko ilość zgromadzonych przez nie danych. Kluczowa staje się ich aktualność. Lepiej jest dysponować mniejszą ilością danych, ale za to mieć pewność, że są to dane najświeższe, odzwierciedlające aktualne potrzeby rynkowe. Dlatego też firmy, wzbogacając swoje systemy w dane typu 3rd party, będą pytać dostawców Big Data o wiek danych oraz ich jakość, czyli tzw. data quality. Dane muszą bowiem być regularnie odświeżane i aktualizowane, ponieważ obecne w nich parametry, jak np. „intencja zakupowej” użytkownika, często mają charakter tymczasowy, nie zaś trwały. W cenie będą zatem te dane, które hurtownie Big Data dostarczają w modelu real-time.
Trend 5: Analityka predyktywna i preskryptwna
Biznes musi dziś zrozumieć nie tylko to, „co się dzieje” oraz „jak się dzieje”, lecz również to, „co będzie się działo” w najbliższych miesiącach, a także „jak sprawić, by coś się wydarzyło”. W tym zaś pomocne okażą się odpowiednio: analityka predyktywna oraz analityka preskryptywna. Ta pierwsza służy przewidywaniu przyszłych scenariuszy rozwoju rynku i zachowań konsumentów oraz firm. Ta druga natomiast dostarcza wiedzy, jak te zachowania modelować oraz wpływać na kształtowanie pożądanych przez firmę postaw. Według badań firmy analitycznej Gartner zawartych w raporcie „100 Data and Analytics Predictions Through 2020”, aż 40 proc. firm zdecyduje się zainwestować w najbliższych latach w analitykę predyktywną i preskryptywną.
Big Data w 2017: ewolucja zamiast rewolucji
Rok 2017 w analityce Big Data nie przyniesie zatem ze sobą wielkiej rewolucji. Będziemy raczej obserwować ewolucję obecnych trendów technologicznych. Z jednej strony firmy będą musiały zmierzyć się z cyfrowymi problemami, w które część z nich popadła wskutek nieefektywnej polityki zarządzania danymi. Z drugiej strony – wzrośnie znaczenie danych typu 3rd party, gromadzonych i przetwarzanych przez wyspecjalizowane w tym firmy. Według badań Gartnera w 2017 roku około 30 proc. danych, jakimi będą dysponowały przedsiębiorstwa, będzie pochodziło z zewnętrznych hurtowni Big Data. Do głosu dojdą również technologie kognitywne, np. uczenie maszynowe, dzięki którym część procesów analitycznych, wykonywanych dotychczas odręcznie, zostanie zautomatyzowana dzięki zastosowaniu algorytmów. Zasadniczo jednak nie należy oczekiwać, że rynek analityki danych w 2017 roku przejdzie jakąś diametralną przemianę. Ta przemiana bowiem już się dokonała. Analityka Big Data przestała być dla firm technologiczną egzotyką i przejściową modą. Teraz przyszedł czas na to, by wycisnąć z niej wszystkie biznesowe soki i wprowadzić firmę na cyfrowe tory.
Najnowsze wiadomości
Kwantowy przełom w cyberochronie - nadchodząca dekada przepisze zasady szyfrowania na nowo
Przez długi czas cyfrowe bezpieczeństwo opierało się na prostym założeniu: współczesne komputery potrzebowałyby ogromnych zasobów i wielu lat, aby złamać silne algorytmy szyfrowania. Rozwój technologii kwantowej zaczyna jednak tę regułę podważać, a eksperci przewidują, że w perspektywie 5–10 lat może nadejść „dzień zero”. Jest to moment, w którym zaawansowana maszyna kwantowa będzie w stanie przełamać większość aktualnie stosowanych zabezpieczeń kryptograficznych w czasie liczonym nie w latach, lecz w godzinach.
PSI prezentuje nową identyfikację wizualną
W ramach realizowanej strategii transformacji PSI Software SE zaprezentowała nową identyfikację wizualną. Odświeżony wizerunek w spójny sposób oddaje technologiczne zaawansowanie firmy, jej głęboką wiedzę branżową oraz silne ukierunkowanie na potrzeby klientów. Zmiany te wzmacniają pozycję PSI jako innowacyjnego lidera technologicznego w obszarze skalowalnych rozwiązań informatycznych opartych na sztucznej inteligencji i chmurze, rozwijanych z myślą o energetyce i przemyśle.
W ramach realizowanej strategii transformacji PSI Software SE zaprezentowała nową identyfikację wizualną. Odświeżony wizerunek w spójny sposób oddaje technologiczne zaawansowanie firmy, jej głęboką wiedzę branżową oraz silne ukierunkowanie na potrzeby klientów. Zmiany te wzmacniają pozycję PSI jako innowacyjnego lidera technologicznego w obszarze skalowalnych rozwiązań informatycznych opartych na sztucznej inteligencji i chmurze, rozwijanych z myślą o energetyce i przemyśle.
PROMAG S.A. rozpoczyna wdrożenie systemu ERP IFS Cloud we współpracy z L-Systems
PROMAG S.A., lider w obszarze intralogistyki, rozpoczął wdrożenie systemu ERP IFS Cloud, który ma wesprzeć dalszy rozwój firmy oraz integrację kluczowych procesów biznesowych. Projekt realizowany jest we współpracy z firmą L-Systems i obejmuje m.in. obszary finansów, produkcji, logistyki, projektów oraz serwisu, odpowiadając na rosnącą skalę i złożoność realizowanych przedsięwzięć.
F5 rozszerza portfolio bezpieczeństwa o narzędzia do ochrony systemów AI w środowiskach enterprise
F5 ogłosiło wprowadzenie dwóch nowych rozwiązań - F5 AI Guardrails oraz F5 AI Red Team - które mają odpowiedzieć na jedno z kluczowych wyzwań współczesnych organizacji: bezpieczne wdrażanie i eksploatację systemów sztucznej inteligencji na dużą skalę. Nowa oferta łączy ochronę działania modeli AI w czasie rzeczywistym z ofensy
Snowflake + OpenAI: AI bliżej biznesu
Snowflake przyspiesza wykorzystanie danych i sztucznej inteligencji w firmach, przenosząc AI z fazy eksperymentów do codziennych procesów biznesowych. Nowe rozwiązania w ramach AI Data Cloud integrują modele AI bezpośrednio z danymi, narzędziami deweloperskimi i warstwą semantyczną. Partnerstwo z OpenAI, agent Cortex Code, Semantic View Autopilot oraz rozwój Snowflake Postgres pokazują, jak budować skalowalne, bezpieczne i mierzalne wdrożenia AI w skali całej organizacji.
Najnowsze artykuły
Magazyn bez błędów? Sprawdź, jak system WMS zmienia codzienność logistyki
Współczesna logistyka wymaga nie tylko szybkości działania, lecz także maksymalnej precyzji – to właśnie te czynniki coraz częściej decydują o przewadze konkurencyjnej firm. Nawet drobne pomyłki w ewidencji stanów magazynowych, błędy przy przyjmowaniu dostaw czy nieprawidłowe rozmieszczenie towarów, mogą skutkować poważnymi stratami finansowymi i opóźnieniami w realizacji zamówień. W jaki sposób nowoczesne rozwiązania do zarządzania pomagają unikać takich sytuacji? Czym właściwie różni się tradycyjny system magazynowy od zaawansowanych rozwiązań klasy WMS (ang. Warehouse Management System)? I w jaki sposób inteligentne zarządzanie procesami magazynowymi realnie usprawnia codzienną pracę setek firm?
Migracja z SAP ECC na S4 HANA: Ryzyka, korzyści i alternatywne rozwiązania
W ostatnich latach wiele firm, które korzystają z systemu SAP ECC (Enterprise Central Component), stoi przed decyzją o przejściu na nowszą wersję — SAP S4 HANA. W obliczu końca wsparcia dla ECC w 2030 roku, temat ten staje się coraz bardziej aktualny. Przemiany technologiczne oraz rosnące oczekiwania związane z integracją nowych funkcji, jak sztuczna inteligencja (AI), skłaniają do refleksji nad tym, czy warto podjąć tak dużą zmianę w architekturze systemu. Przyjrzyjmy się głównym powodom, dla których firmy rozważają migrację do S4 HANA, ale także argumentom, które mogą przemawiać za pozostaniem przy dotychczasowym systemie ECC, przynajmniej na krótki okres.
Jak maksymalizować zyski z MTO i MTS dzięki BPSC ERP?
Zysk przedsiębiorstwa produkcyjnego zależy nie tylko od wydajności maszyn, ale przede wszystkim od precyzyjnego planowania, realnych danych i umiejętnego zarządzania procesami. Dlatego firmy, które chcą skutecznie działać zarówno w modelu Make to Stock (MTS), jak i Make to Order (MTO), coraz częściej sięgają po rozwiązania klasy ERP, takie jak BPSC ERP.
Ponad połowa cyberataków zaczyna się od błędu człowieka
Ponad 2/3 firm w Polsce odnotowała w zeszłym roku co najmniej 1 incydent naruszenia bezpieczeństwa . Według danych Unit 42, zespołu analitycznego Palo Alto Networks, aż 60% ataków rozpoczyna się od działań wymierzonych w pracowników – najczęściej pod postacią phishingu i innych form inżynierii społecznej . To pokazuje, że w systemie ochrony organizacji pracownicy są kluczowym ogniwem – i że firmy muszą nie tylko edukować, ale też konsekwentnie egzekwować zasady cyberhigieny. Warto o tym pamiętać szczególnie teraz, w październiku, gdy obchodzimy Europejski Miesiąc Cyberbezpieczeństwa.
MES - holistyczne zarządzanie produkcją
Nowoczesna produkcja wymaga precyzji, szybkości i pełnej kontroli nad przebiegiem procesów. Rosnąca złożoność zleceń oraz presja kosztowa sprawiają, że ręczne raportowanie i intuicyjne zarządzanie coraz częściej okazują się niewystarczające. Firmy szukają rozwiązań, które umożliwiają im widzenie produkcji „na żywo”, a nie z opóźnieniem kilku godzin czy dni. W tym kontekście kluczową rolę odgrywają narzędzia, które porządkują informacje i pozwalają reagować natychmiast, zamiast po fakcie.
Przeczytaj Również
Jak przyspieszyć transformację energetyczną i dekarbonizację dzięki inteligentnej integracji danych w chmurze?
Odpowiedzią jest Snowflake Energy Solutions – nowa oferta łącząca ponad 30 rozwiązań partnerskich w… / Czytaj więcej
Jak skutecznie wdrożyć Power BI w organizacji?
Wdrożenie narzędzi analitycznych w firmie to nie tylko kwestia technologii, ale także zmiany podejś… / Czytaj więcej
Czy systemy Business Intelligence nadają się do małych i średnich firm?
W świecie biznesu coraz więcej mówi się o danych. Firmy gromadzą je w ogromnych ilościach – od arku… / Czytaj więcej
Jak Business Intelligence rewolucjonizuje zarządzanie sieciami dealerskimi – rozwiązania od One Support
W branży motoryzacyjnej zmiany zachodzą szybciej niż kiedykolwiek. Dynamiczne wahania cen, rosnąca… / Czytaj więcej
Narzędzia BI dla systemów ERP: Jak wybrać odpowiednie rozwiązanie?
W ostatnim czasie dane stały się jednym z najważniejszych aktywów biznesowych. Sam system ERP pozwa… / Czytaj więcej
Business Intelligence w praktyce – jak system BI One zmienia sposób zarządzania firmą
W erze cyfrowej transformacji dane stały się najcenniejszym zasobem każdej organizacji. Ich skutecz… / Czytaj więcej

