Badanie: Jak firmy w Polsce podchodzą do zagadnienia jakości danych?
Katgoria: WIADOMOŚCI / Utworzono: 22 marzec 2012
Badanie: Jak firmy w Polsce podchodzą do zagadnienia jakości danych?
Z badania przeprowadzonego wśród przedstawicieli dużych i średnich przedsiębiorstw w Polsce wynika, że w przypadku większości organizacji jakość danych wykorzystywanych do realizacji celów biznesowych nie jest zadowalająca. Jedynie 9% badanych firm potwierdziło, że ich dane są rzetelne, aktualne i kompletne. Kompleksowe programy poprawy jakości danych nie są realizowane, ponieważ zbyt niska jest świadomość skali strat wynikających z przetwarzania niewłaściwych lub niepełnych informacji.
Badanie zostało przeprowadzone przez redakcję Computerworld we współpracy z SAS Institute na początku 2012 roku. Jest to pierwsze w Polsce badanie ankietowe poświęcone zagadnieniu jakości danych w biznesie. Wzięło w nim udział ponad 100 firm i instytucji z różnych branż (finanse, przemysł, telekomunikacja, sektor publiczny). Respondentami byli w głównej mierze szefowie działów IT.
Realizację kompleksowych programów poprawy jakości danych w ramach całej organizacji zadeklarowało jedynie 11% ankietowanych firm. W większości przypadków działania związane z czyszczeniem danych są realizowane w wybranych obszarach biznesowych, przy okazji prowadzonych projektów. 51% badanych potwierdziło, że tego typu działania są realizowane w ich organizacjach, w przypadku 37% respondentów działania te są związane z migracją systemu klasy ERP lub innej aplikacji. Najczęściej (48% wskazań) za jakość danych odpowiadają departamenty odpowiedzialne za dany system lub obszar merytoryczny, według 16% ankietowanych jest to odpowiedzialność działu IT.
W odpowiedzi na pytanie dotyczące konkretnych przykładów problemów związanych z jakością danych w działalności biznesowej, 50% firm wskazało nieprawdziwe lub nieaktualne wartości danych, natomiast 44% respondentów trudności w powiązaniu danych z różnych źródeł dla potrzeb analiz. Istotnym problemem jest również brak dostępności danych w odpowiednim czasie (29% wskazań). Najczęściej wskazywane obszary niekompletnych i błędnych danych to dane kontaktowe dotyczące klientów lub kontrahentów (44% wskazań) oraz dane osobowe dotyczące tych samych grup (37% wskazań). Zdaniem 80% badanych najczęstszą przyczyną problemów z jakością danych są błędy ludzkie.
W czasach, gdy ilość przetwarzanych danych rośnie lawinowo, brak kompleksowego podejścia do zapewnienia ich jakości może kosztować bardzo wiele. Alarmujące są wyliczenia przytaczane przez firmy analityczne, które mówią o stratach rzędu miliardów dolarów rocznie. Wymiar strat zawsze jest rozpatrywany w wymiarze finansowym, jednak równie istotny jest wpływ złej jakości danych na opóźnienia w realizacji procesów biznesowych oraz dynamikę i rozwój organizacji. 70% ankietowanych jako główny problem wynikający ze złej jakości danych wskazało dodatkowy czas potrzebny na ręczne ich poprawianie, 63% wymieniło trudności w realizacji procesów raportowania i analiz, 46% opóźnienia we wdrożeniach systemów informatycznych.
Zapewnienie odpowiedniej jakości danych jest jednym z głównych wyzwań, z którym musi zmierzyć się zarówno organizacja biznesowa, jak i instytucja publiczna. Należy pomyśleć o zbudowaniu spójnej strategii w zakresie jakości danych dla całej organizacji, zdecydowanie odchodząc od podejścia fragmentarycznego.
Realizację kompleksowych programów poprawy jakości danych w ramach całej organizacji zadeklarowało jedynie 11% ankietowanych firm. W większości przypadków działania związane z czyszczeniem danych są realizowane w wybranych obszarach biznesowych, przy okazji prowadzonych projektów. 51% badanych potwierdziło, że tego typu działania są realizowane w ich organizacjach, w przypadku 37% respondentów działania te są związane z migracją systemu klasy ERP lub innej aplikacji. Najczęściej (48% wskazań) za jakość danych odpowiadają departamenty odpowiedzialne za dany system lub obszar merytoryczny, według 16% ankietowanych jest to odpowiedzialność działu IT.
W odpowiedzi na pytanie dotyczące konkretnych przykładów problemów związanych z jakością danych w działalności biznesowej, 50% firm wskazało nieprawdziwe lub nieaktualne wartości danych, natomiast 44% respondentów trudności w powiązaniu danych z różnych źródeł dla potrzeb analiz. Istotnym problemem jest również brak dostępności danych w odpowiednim czasie (29% wskazań). Najczęściej wskazywane obszary niekompletnych i błędnych danych to dane kontaktowe dotyczące klientów lub kontrahentów (44% wskazań) oraz dane osobowe dotyczące tych samych grup (37% wskazań). Zdaniem 80% badanych najczęstszą przyczyną problemów z jakością danych są błędy ludzkie.
W czasach, gdy ilość przetwarzanych danych rośnie lawinowo, brak kompleksowego podejścia do zapewnienia ich jakości może kosztować bardzo wiele. Alarmujące są wyliczenia przytaczane przez firmy analityczne, które mówią o stratach rzędu miliardów dolarów rocznie. Wymiar strat zawsze jest rozpatrywany w wymiarze finansowym, jednak równie istotny jest wpływ złej jakości danych na opóźnienia w realizacji procesów biznesowych oraz dynamikę i rozwój organizacji. 70% ankietowanych jako główny problem wynikający ze złej jakości danych wskazało dodatkowy czas potrzebny na ręczne ich poprawianie, 63% wymieniło trudności w realizacji procesów raportowania i analiz, 46% opóźnienia we wdrożeniach systemów informatycznych.
Zapewnienie odpowiedniej jakości danych jest jednym z głównych wyzwań, z którym musi zmierzyć się zarówno organizacja biznesowa, jak i instytucja publiczna. Należy pomyśleć o zbudowaniu spójnej strategii w zakresie jakości danych dla całej organizacji, zdecydowanie odchodząc od podejścia fragmentarycznego.
Aby uzyskać realne korzyści, narzędzia do zapewnienia jakości danych powinny być wyposażone w predefiniowaną, ale również rozszerzalną bazę reguł jakości danych dostosowaną do lokalnych warunków (np. języka polskiego, standardowych zasad zapisu adresów, numerów telefonów), zestaw danych referencyjnych (np. słownik polskich imion , referencyjną bazę adresową zgodną ze standardem TERYT, bazę kodów pocztowych). Ważne jest, aby wykorzystanie tych narzędzi nie wymagało zaawansowanej wiedzy informatycznej, bowiem ostatecznym autorytetem w dziedzinie jakości danego zbioru danych jest najczęściej jego merytoryczny właściciel. To on powinien mieć możliwość szybkiej oceny poziomu jakości i obszarów problemów, a także zdefiniowania reguły poprawy (np. standaryzacji zapisów czy usuwania duplikatów). Dlatego raczej nie wchodzą w grę rozwiązania wymagające kodowania, znajomości SQL itd. - powiedział Adam Bartos, Dyrektor ds. Technologii, SAS Institute PolskaZmiana warunków prowadzenia biznesu wymaga tworzenia nowych lub modyfikacji istniejących reguł czyszczenia danych. Konieczne jest również wdrożenie mechanizmów monitorowania jakości danych znajdujących się w systemach. Technologia wykorzystywana do zapewnienia jakości danych powinna być kompletna, łatwa w dostosowaniu, zintegrowana i sprawdzona. SAS Institute oferuje taką technologię wraz z praktycznym doświadczeniem jej zastosowania.
Trzeba pamiętać, że zagadnienia jakości danych pojawiają się podczas realizacji różnego rodzaju projektów, nie tylko tak prostych jak czyszczenie baz marketingowych, ale np. przy budowie hurtowni danych, repozytoriów analitycznych, centralnych baz kontrahentów lub klientów, migracji systemów, czy w końcu rozwiązań do zarządzania danymi podstawowymi (MDM). Warto przemyśleć, jakie przedsięwzięcia planujemy realizować i tak wybrać technologię, aby dała się zastosować w różnych architekturach systemów przetwarzania danych. – dodaje Adam BartosŹródło: SAS
Najnowsze wiadomości
Kwantowy przełom w cyberochronie - nadchodząca dekada przepisze zasady szyfrowania na nowo
Przez długi czas cyfrowe bezpieczeństwo opierało się na prostym założeniu: współczesne komputery potrzebowałyby ogromnych zasobów i wielu lat, aby złamać silne algorytmy szyfrowania. Rozwój technologii kwantowej zaczyna jednak tę regułę podważać, a eksperci przewidują, że w perspektywie 5–10 lat może nadejść „dzień zero”. Jest to moment, w którym zaawansowana maszyna kwantowa będzie w stanie przełamać większość aktualnie stosowanych zabezpieczeń kryptograficznych w czasie liczonym nie w latach, lecz w godzinach.
PSI prezentuje nową identyfikację wizualną
W ramach realizowanej strategii transformacji PSI Software SE zaprezentowała nową identyfikację wizualną. Odświeżony wizerunek w spójny sposób oddaje technologiczne zaawansowanie firmy, jej głęboką wiedzę branżową oraz silne ukierunkowanie na potrzeby klientów. Zmiany te wzmacniają pozycję PSI jako innowacyjnego lidera technologicznego w obszarze skalowalnych rozwiązań informatycznych opartych na sztucznej inteligencji i chmurze, rozwijanych z myślą o energetyce i przemyśle.
W ramach realizowanej strategii transformacji PSI Software SE zaprezentowała nową identyfikację wizualną. Odświeżony wizerunek w spójny sposób oddaje technologiczne zaawansowanie firmy, jej głęboką wiedzę branżową oraz silne ukierunkowanie na potrzeby klientów. Zmiany te wzmacniają pozycję PSI jako innowacyjnego lidera technologicznego w obszarze skalowalnych rozwiązań informatycznych opartych na sztucznej inteligencji i chmurze, rozwijanych z myślą o energetyce i przemyśle.
PROMAG S.A. rozpoczyna wdrożenie systemu ERP IFS Cloud we współpracy z L-Systems
PROMAG S.A., lider w obszarze intralogistyki, rozpoczął wdrożenie systemu ERP IFS Cloud, który ma wesprzeć dalszy rozwój firmy oraz integrację kluczowych procesów biznesowych. Projekt realizowany jest we współpracy z firmą L-Systems i obejmuje m.in. obszary finansów, produkcji, logistyki, projektów oraz serwisu, odpowiadając na rosnącą skalę i złożoność realizowanych przedsięwzięć.
F5 rozszerza portfolio bezpieczeństwa o narzędzia do ochrony systemów AI w środowiskach enterprise
F5 ogłosiło wprowadzenie dwóch nowych rozwiązań - F5 AI Guardrails oraz F5 AI Red Team - które mają odpowiedzieć na jedno z kluczowych wyzwań współczesnych organizacji: bezpieczne wdrażanie i eksploatację systemów sztucznej inteligencji na dużą skalę. Nowa oferta łączy ochronę działania modeli AI w czasie rzeczywistym z ofensy
Snowflake + OpenAI: AI bliżej biznesu
Snowflake przyspiesza wykorzystanie danych i sztucznej inteligencji w firmach, przenosząc AI z fazy eksperymentów do codziennych procesów biznesowych. Nowe rozwiązania w ramach AI Data Cloud integrują modele AI bezpośrednio z danymi, narzędziami deweloperskimi i warstwą semantyczną. Partnerstwo z OpenAI, agent Cortex Code, Semantic View Autopilot oraz rozwój Snowflake Postgres pokazują, jak budować skalowalne, bezpieczne i mierzalne wdrożenia AI w skali całej organizacji.
Najnowsze artykuły
Magazyn bez błędów? Sprawdź, jak system WMS zmienia codzienność logistyki
Współczesna logistyka wymaga nie tylko szybkości działania, lecz także maksymalnej precyzji – to właśnie te czynniki coraz częściej decydują o przewadze konkurencyjnej firm. Nawet drobne pomyłki w ewidencji stanów magazynowych, błędy przy przyjmowaniu dostaw czy nieprawidłowe rozmieszczenie towarów, mogą skutkować poważnymi stratami finansowymi i opóźnieniami w realizacji zamówień. W jaki sposób nowoczesne rozwiązania do zarządzania pomagają unikać takich sytuacji? Czym właściwie różni się tradycyjny system magazynowy od zaawansowanych rozwiązań klasy WMS (ang. Warehouse Management System)? I w jaki sposób inteligentne zarządzanie procesami magazynowymi realnie usprawnia codzienną pracę setek firm?
Migracja z SAP ECC na S4 HANA: Ryzyka, korzyści i alternatywne rozwiązania
W ostatnich latach wiele firm, które korzystają z systemu SAP ECC (Enterprise Central Component), stoi przed decyzją o przejściu na nowszą wersję — SAP S4 HANA. W obliczu końca wsparcia dla ECC w 2030 roku, temat ten staje się coraz bardziej aktualny. Przemiany technologiczne oraz rosnące oczekiwania związane z integracją nowych funkcji, jak sztuczna inteligencja (AI), skłaniają do refleksji nad tym, czy warto podjąć tak dużą zmianę w architekturze systemu. Przyjrzyjmy się głównym powodom, dla których firmy rozważają migrację do S4 HANA, ale także argumentom, które mogą przemawiać za pozostaniem przy dotychczasowym systemie ECC, przynajmniej na krótki okres.
Jak maksymalizować zyski z MTO i MTS dzięki BPSC ERP?
Zysk przedsiębiorstwa produkcyjnego zależy nie tylko od wydajności maszyn, ale przede wszystkim od precyzyjnego planowania, realnych danych i umiejętnego zarządzania procesami. Dlatego firmy, które chcą skutecznie działać zarówno w modelu Make to Stock (MTS), jak i Make to Order (MTO), coraz częściej sięgają po rozwiązania klasy ERP, takie jak BPSC ERP.
Ponad połowa cyberataków zaczyna się od błędu człowieka
Ponad 2/3 firm w Polsce odnotowała w zeszłym roku co najmniej 1 incydent naruszenia bezpieczeństwa . Według danych Unit 42, zespołu analitycznego Palo Alto Networks, aż 60% ataków rozpoczyna się od działań wymierzonych w pracowników – najczęściej pod postacią phishingu i innych form inżynierii społecznej . To pokazuje, że w systemie ochrony organizacji pracownicy są kluczowym ogniwem – i że firmy muszą nie tylko edukować, ale też konsekwentnie egzekwować zasady cyberhigieny. Warto o tym pamiętać szczególnie teraz, w październiku, gdy obchodzimy Europejski Miesiąc Cyberbezpieczeństwa.
MES - holistyczne zarządzanie produkcją
Nowoczesna produkcja wymaga precyzji, szybkości i pełnej kontroli nad przebiegiem procesów. Rosnąca złożoność zleceń oraz presja kosztowa sprawiają, że ręczne raportowanie i intuicyjne zarządzanie coraz częściej okazują się niewystarczające. Firmy szukają rozwiązań, które umożliwiają im widzenie produkcji „na żywo”, a nie z opóźnieniem kilku godzin czy dni. W tym kontekście kluczową rolę odgrywają narzędzia, które porządkują informacje i pozwalają reagować natychmiast, zamiast po fakcie.
Przeczytaj Również
PSI prezentuje nową identyfikację wizualną
W ramach realizowanej strategii transformacji PSI Software SE zaprezentowała nową identyfikację wiz… / Czytaj więcej
Snowflake + OpenAI: AI bliżej biznesu
Snowflake przyspiesza wykorzystanie danych i sztucznej inteligencji w firmach, przenosząc AI z fazy… / Czytaj więcej
Nowa era komunikacji biznesowej, KSeF stał się faktem
Od 1 lutego 2026 roku, w Polsce z sukcesem rozpoczęła się nowa era elektronicznej komunikacji w biz… / Czytaj więcej
Hakerzy nie kradną już tylko haseł. Oni kradną Twój czas i przyszłość. Jak chronić ERP przed paraliżem?
Hakerzy coraz rzadziej koncentrują się wyłącznie na kradzieży haseł. Ich prawdziwym celem jest dziś… / Czytaj więcej
AI bez hype’u – od eksperymentów do infrastruktury decyzji
Sektory IT oraz logistyka stoją u progu fundamentalnej zmiany w podejściu do sztucznej inteligencji… / Czytaj więcej

