Przejdź do głównej treści

Nowe narzędzie, nowe możliwości – Adrian Guzy z CTDI o innowacyjności, kulturze pracy z danymi i analityce w Microsoft Fabric

Katgoria: IT SOLUTIONS / Utworzono: 19 lipiec 2025
Nowe narzędzie, nowe możliwości – Adrian Guzy z CTDI o innowacyjności, kulturze pracy z danymi i analityce w Microsoft Fabric
ANEGISW nowej siedzibie CTDI w Sękocinie Starym pod Warszawą tafle szkła odbijają poranne słońce, a wnętrza zaskakują nowoczesnym sznytem; energooszczędne oświetlenie LED, stała temperatura 20°C, podłogi o właściwościach antyelektrostatycznych; od 2024 roku budynek jest zasilany wyłącznie zieloną energią. Polska siedziba CTDI została oddana do użytku w 2019 roku i stała się symbolem inwestycji w przyszłość – jak mówią przedstawiciele firmy – odzwierciedla podejście organizacji: odważnie wkraczać w nowe obszary biznesu, wykorzystując najnowsze technologie. I to podejście również wpisuje się w ideę projektu wdrożenia Microsoft Fabric w europejskiej dywizji CTDI.

REKLAMA
ASSECO KSEF
 
CTDI (Communications Test Design, Inc.) od ponad 50 lat dostarcza usługi inżynieryjne, serwisowe i logistyczne dla branży telekomunikacyjnej i elektronicznej w skali globalnej. Firma działa w ponad 100 lokalizacjach na całym świecie i zatrudnia ponad 20 000 pracowników, w tym 4 200 w Europie. W Polsce znajduje się największy europejski oddział firmy, który współpracuje z takimi markami jak Samsung, Google, Motorola Solutions, Zebra, Dell, a także operatorami Orange czy Plus.
 
Spacerujemy między stanowiskami w głównej hali serwisowej. Na jednym z nich precyzyjne ramię robota symuluje na ekranie smartfonu ruch palca użytkownika.
Naszym przewodnikiem po siedzibie jest Adrian Guzy, BI Development Manager w CTDI. To on i jego zespół wybrali Microsoft Fabric na swoją nową platformę analityczną. Choć w momencie, gdy rozpoczynali proces ofertowy, Microsoft dopiero uruchamiał platformę do testów.

Jak doszło do tego, że wybraliście debiutujące na rynku BI narzędzie?

Po 10 latach używania jednego oprogramowania uznaliśmy, że najwyższy czas, żeby przyjrzeć się całemu rynkowi i przekonać się, czy to nadal jest najlepsza opcja dla nas, biorąc pod uwagę możliwości względem kosztów. Wyszliśmy z zapytaniem do rynku i w procesie poszukiwań okazało się, że oprócz naszego rozwiązania – Sisense – powinniśmy wziąć pod uwagę jeszcze dwa – Tableau i Power BI – wówczas głównych graczy na rynku business intelligence. Chcieliśmy mieć pewność, że używamy najlepszych narzędzi. Kolejnym ważnym aspektem było to, żebyśmy, gdy już wybierzemy konkretny produkt, mieli partnera, który może nam pomóc w implementacji. Chcieliśmy, żeby była to firma, która ma wiedzę i będzie nam towarzyszyć w nadchodzących latach, a nie zniknie za rok czy dwa. Odbyliśmy kilka rozmów z ANEGIS – partnerem Microsoft, a ANEGIS dopasował się do naszego procesu RFQ (Request for Quotation – przyp. red.). Ta elastyczność, możliwość dostosowania się do naszych wymagań, też nam się spodobała. A w trakcie procesu RFQ Microsoft wypuścił rozwiązanie Microsoft Fabric, jeszcze w wersji public preview.

Microsoft Fabric został udostępniony w wersji general availability w listopadzie 2023. W momencie rozpoczęcia projektu, lutym 2024, to było jeszcze młode rozwiązanie. Czy wybór narzędzia, całkiem nowego dla was, nie wiązał się z większymi wyzwaniami niż w przypadku platform już znanych CTDI?

Zdawaliśmy sobie sprawę, że wybierając produkt, który jest zupełnie nowy, będziemy mierzyć się z pewnymi wyzwaniami. I one są, bo jest to produkt, który cały czas się rozwija i widać tę jego niedojrzałość. Ale ogromnym plusem jest to, że startujemy z tym produktem - rośniemy z nim i jesteśmy jedną z pierwszych firm, które na taką skalę wprowadzają go od początku jego istnienia. Drugi plus jest taki, że to rozwiązanie integruje wszystkie narzędzia, a o to nam chodziło.

Czyli świeżość rozwiązania stanowiła wyzwanie, ale i wartość. Jakie jeszcze kryteria zadecydowały o wyborze Fabric?

Bezpieczeństwo. Ta integracja źródeł danych i narzędzi powoduje, że dużo łatwiej zarządzać bezpieczeństwem i przeprowadzać audyty danych. Ten aspekt na pewno spodobał się naszemu zespołowi Information Security. Wiedzieliśmy, że odrobinę będziemy się uczyć tego produktu razem z zespołem ANEGIS, który znał Microsoft jako firmę, znał produkty, znał różne aspekty Fabric - Azure Synapse, Power BI, OneLake – ale nie platformę jako całość. Więc na początku było kilka wyzwań, ale byliśmy i jesteśmy nadal przekonani, że te plusy zaprocentują z czasem. To, co Fabric daje, to też zmiana myślenia w ramach firmy, zmiana kultury wokół danych.

Na czym ta zmiana polega?

Każda firma boryka się z silosami danych. To grupy, zespoły robiące podobne rzeczy, ale w inny sposób. Od początku przyświecała nam idea, że chcemy połączyć dwa aspekty – standaryzację i stworzenie od nowa kultury pracy z danymi i wymiany idei związanych z danymi. To oznacza, że za każdym razem, gdy nowy zespół dołącza do Fabrica, to pozwalamy mu skonsolidować jego dane. Rozpoczynamy pracę od serii szkoleń. Każdy kolejny team uczy się pracy z danymi według najlepszych praktyk. Jeśli staniemy się w tym dobrzy, to będzie to miało ogromny wpływ na oszczędności związane z niepowtarzaniem tej samej pracy kilka razy w różnych działach, tylko wykorzystywaniem istniejących już rozwiązań.

A jakie możliwości Fabrica były dla was game changerem?

Największa zmiana jakościowa dla nas, to wykorzystanie machine learning. Była to pracochłonna, ale i ekscytująca rzecz – funkcjonalność, którą minimalnie wykorzystywaliśmy w poprzednim narzędziu. To był game changer, bo po raz pierwszy na taką skalę wykorzystywaliśmy machine learning i advanced analytics – projekt ukierunkowany na predykcję danych. Ten projekt rozpoczął się po implementacji głównej. To był w zasadzie projekt flagowy, żeby, po pierwsze, pokazać na co stać Fabric, a po drugie, żeby nauczyć się całego procesu predykcji.

Jak jeszcze skorzystaliście z wdrożenia?

To, co dał nam projekt, to zrozumienie możliwości tych wszystkich narzędzi i był pierwszym krokiem w implementacji machine learning w różnych dziedzinach. Od czasu jednego projektu z predykcją cen prowadzimy już kilka kolejnych, wykorzystujących ten sam zestaw narzędzi i procesów Fabrica, np. pracujemy teraz nad usprawnieniami warehouse slot, czyli optymalizacją wykorzystania przestrzeni magazynu. Nie bylibyśmy w stanie pracować w ten sposób nad nowym projektem, gdyby nie projekt machine learning zrealizowany z zespołem ANEGIS.

O czym należy pamiętać, rozpoczynając projekty z użyciem analizy predykcyjnej?

Ogromnym wyzwaniem, z którym mierzą się firmy, jest jakość i ilość danych. Trzeba sobie zdawać sprawę z tego, że takie projekty nie zawsze dają oczekiwane rezultaty. Dopiero po zakończeniu projektu okazuje się, czy w ogóle dane, które mamy, są wystarczające, żeby usprawnienie wprowadzić. Dla każdego biznesu to jest niewiadoma. Dopóki jakiś specjalista się temu nie przyjrzy i nie powie: - Słuchajcie, to daje wam takie rezultaty, ale musicie jeszcze zgromadzić więcej danych, a dodatkowo, gdy będziecie je gromadzić, musicie pamiętać, żeby takie i takie parametry uwzględnić. To również była dla nas wartościowa informacja – dowiedzieliśmy się, że gdy pracujemy nad takimi projektami, to jest kilka kryteriów, które muszą zostać spełnione, aby projekt był sukcesem.

Gdybyś miał, patrząc na ten projekt całościowo, zasugerować coś firmom, które też chciałyby się zdecydować na wdrożenie Microsoft Fabric, to na co powinny zwrócić uwagę?

Mam trzy rady dla takich firm. Pierwsza to: inwestuj proaktywnie w programy szkoleniowe dla swojego zespołu do spraw danych. Microsoft Fabric rozwija się bardzo dynamicznie, dlatego równie ważne jest to, żeby wdrożenie projektować elastycznie, aby móc łatwo dostosować się do zmian i nowości. I korzystaj ze wsparcia Microsoft i forów społecznościowych. To dobre źródła wiedzy, które pomogą w przygotowywaniu dokumentacji i obejściu pewnych ograniczeń.

Czy jest coś, co z perspektywy czasu zrobiłbyś w tym projekcie inaczej?

Jestem zadowolony z projektu. Na pewno nie zmienimy tej decyzji i nie wybierzemy czegoś innego, mimo wszystkich wyzwań, które mieliśmy i które są jeszcze przed nami. Cały czas mamy też na uwadze standaryzację i myślenie o tym, żeby wszystkie dane, wszystkie nasze projekty, wszystkie repozytoria były w naturalny sposób rozumiane przez maszyny. Druga sprawa jest taka, że korzystamy z wiedzy zaczerpniętej z projektu machine learning i ludzie pytają nas o ten projekt, chcą wdrażać machine learning u siebie. Zatem jeśli chodzi o zmianę kultury wokół danych i technologie, które były dla nas do odkrycia – takie jak machine learning – przechodzimy ewolucję.
Źródło: www.anegis.com 

Oceń systemy
RAPORT ERP SPRAWDZ POROWNAJ OCENMicrosoft na stronie www.raport-erp.pl



Najnowsze wiadomości

Kwantowy przełom w cyberochronie - nadchodząca dekada przepisze zasady szyfrowania na nowo
Przez długi czas cyfrowe bezpieczeństwo opierało się na prostym założeniu: współczesne komputery potrzebowałyby ogromnych zasobów i wielu lat, aby złamać silne algorytmy szyfrowania. Rozwój technologii kwantowej zaczyna jednak tę regułę podważać, a eksperci przewidują, że w perspektywie 5–10 lat może nadejść „dzień zero”. Jest to moment, w którym zaawansowana maszyna kwantowa będzie w stanie przełamać większość aktualnie stosowanych zabezpieczeń kryptograficznych w czasie liczonym nie w latach, lecz w godzinach.
PSI prezentuje nową identyfikację wizualną
psilogoW ramach realizowanej strategii transformacji PSI Software SE zaprezentowała nową identyfikację wizualną. Odświeżony wizerunek w spójny sposób oddaje technologiczne zaawansowanie firmy, jej głęboką wiedzę branżową oraz silne ukierunkowanie na potrzeby klientów. Zmiany te wzmacniają pozycję PSI jako innowacyjnego lidera technologicznego w obszarze skalowalnych rozwiązań informatycznych opartych na sztucznej inteligencji i chmurze, rozwijanych z myślą o energetyce i przemyśle.
PROMAG S.A. rozpoczyna wdrożenie systemu ERP IFS Cloud we współpracy z L-Systems
PROMAG S.A., lider w obszarze intralogistyki, rozpoczął wdrożenie systemu ERP IFS Cloud, który ma wesprzeć dalszy rozwój firmy oraz integrację kluczowych procesów biznesowych. Projekt realizowany jest we współpracy z firmą L-Systems i obejmuje m.in. obszary finansów, produkcji, logistyki, projektów oraz serwisu, odpowiadając na rosnącą skalę i złożoność realizowanych przedsięwzięć.
F5 rozszerza portfolio bezpieczeństwa o narzędzia do ochrony systemów AI w środowiskach enterprise
F5 ogłosiło wprowadzenie dwóch nowych rozwiązań - F5 AI Guardrails oraz F5 AI Red Team - które mają odpowiedzieć na jedno z kluczowych wyzwań współczesnych organizacji: bezpieczne wdrażanie i eksploatację systemów sztucznej inteligencji na dużą skalę. Nowa oferta łączy ochronę działania modeli AI w czasie rzeczywistym z ofensy
Snowflake + OpenAI: AI bliżej biznesu
Snowflake przyspiesza wykorzystanie danych i sztucznej inteligencji w firmach, przenosząc AI z fazy eksperymentów do codziennych procesów biznesowych. Nowe rozwiązania w ramach AI Data Cloud integrują modele AI bezpośrednio z danymi, narzędziami deweloperskimi i warstwą semantyczną. Partnerstwo z OpenAI, agent Cortex Code, Semantic View Autopilot oraz rozwój Snowflake Postgres pokazują, jak budować skalowalne, bezpieczne i mierzalne wdrożenia AI w skali całej organizacji.



Najnowsze artykuły

Magazyn bez błędów? Sprawdź, jak system WMS zmienia codzienność logistyki
SENTEWspółczesna logistyka wymaga nie tylko szybkości działania, lecz także maksymalnej precyzji – to właśnie te czynniki coraz częściej decydują o przewadze konkurencyjnej firm. Nawet drobne pomyłki w ewidencji stanów magazynowych, błędy przy przyjmowaniu dostaw czy nieprawidłowe rozmieszczenie towarów, mogą skutkować poważnymi stratami finansowymi i opóźnieniami w realizacji zamówień. W jaki sposób nowoczesne rozwiązania do zarządzania pomagają unikać takich sytuacji? Czym właściwie różni się tradycyjny system magazynowy od zaawansowanych rozwiązań klasy WMS (ang. Warehouse Management System)? I w jaki sposób inteligentne zarządzanie procesami magazynowymi realnie usprawnia codzienną pracę setek firm?
Migracja z SAP ECC na S4 HANA: Ryzyka, korzyści i alternatywne rozwiązania
W ostatnich latach wiele firm, które korzystają z systemu SAP ECC (Enterprise Central Component), stoi przed decyzją o przejściu na nowszą wersję — SAP S4 HANA. W obliczu końca wsparcia dla ECC w 2030 roku, temat ten staje się coraz bardziej aktualny. Przemiany technologiczne oraz rosnące oczekiwania związane z integracją nowych funkcji, jak sztuczna inteligencja (AI), skłaniają do refleksji nad tym, czy warto podjąć tak dużą zmianę w architekturze systemu. Przyjrzyjmy się głównym powodom, dla których firmy rozważają migrację do S4 HANA, ale także argumentom,  które mogą przemawiać za pozostaniem przy dotychczasowym systemie ECC, przynajmniej na krótki okres.
Jak maksymalizować zyski z MTO i MTS dzięki BPSC ERP?
BPSC FORTERROZysk przedsiębiorstwa produkcyjnego zależy nie tylko od wydajności maszyn, ale przede wszystkim od precyzyjnego planowania, realnych danych i umiejętnego zarządzania procesami. Dlatego firmy, które chcą skutecznie działać zarówno w modelu Make to Stock (MTS), jak i Make to Order (MTO), coraz częściej sięgają po rozwiązania klasy ERP, takie jak BPSC ERP.
Ponad połowa cyberataków zaczyna się od błędu człowieka
Ponad 2/3 firm w Polsce odnotowała w zeszłym roku co najmniej 1 incydent naruszenia bezpieczeństwa . Według danych Unit 42, zespołu analitycznego Palo Alto Networks, aż 60% ataków rozpoczyna się od działań wymierzonych w pracowników – najczęściej pod postacią phishingu i innych form inżynierii społecznej . To pokazuje, że w systemie ochrony organizacji pracownicy są kluczowym ogniwem – i że firmy muszą nie tylko edukować, ale też konsekwentnie egzekwować zasady cyberhigieny. Warto o tym pamiętać szczególnie teraz, w październiku, gdy obchodzimy Europejski Miesiąc Cyberbezpieczeństwa.
MES - holistyczne zarządzanie produkcją
Nowoczesna produkcja wymaga precyzji, szybkości i pełnej kontroli nad przebiegiem procesów. Rosnąca złożoność zleceń oraz presja kosztowa sprawiają, że ręczne raportowanie i intuicyjne zarządzanie coraz częściej okazują się niewystarczające. Firmy szukają rozwiązań, które umożliwiają im widzenie produkcji „na żywo”, a nie z opóźnieniem kilku godzin czy dni. W tym kontekście kluczową rolę odgrywają narzędzia, które porządkują informacje i pozwalają reagować natychmiast, zamiast po fakcie.

Przeczytaj Również

Technologie na żądanie zyskują na popularności, ale za jaką cenę?

W erze dynamicznej transformacji cyfrowej organizacje coraz chętniej sięgają po technologie dostępn… / Czytaj więcej

Jaki serwer dla ERP, CRM czy BI? VPS, dedykowany, chmura a może on-premise?

Wybór właściwej infrastruktury serwerowej dla systemów ERP, CRM czy Business Intelligence to jedna… / Czytaj więcej

Strategiczna przewaga czy kosztowny mit? Kto wygrywa dzięki chmurze?

Chmura miała być odpowiedzią na wyzwania sektora finansowego: przestarzałą infrastrukturę, rozprosz… / Czytaj więcej

Nowe narzędzie, nowe możliwości – Adrian Guzy z CTDI o innowacyjności, kulturze pracy z danymi i analityce w Microsoft Fabric

W nowej siedzibie CTDI w Sękocinie Starym pod Warszawą tafle szkła odbijają poranne słońce, a wnętr… / Czytaj więcej

Hiperautomatyzacja: kolejny etap rewolucji czy buzzword?

Automatyzacja to już nie tylko boty i proste skrypty – kolejnym krokiem jest hiperautomatyzacja, kt… / Czytaj więcej

Jak agenci AI zrewolucjonizują przemysł, zwiększą produktywność i obniżą koszty

Obecnie każda firma chce być firmą AI, ale według McKinsey tylko 1% przedsiębiorstw uważa, że osiąg… / Czytaj więcej