Przejdź do głównej treści

Podróż w chmury

Katgoria: WIADOMOŚCI / Utworzono: 06 styczeń 2013

Podróż w chmury

Spowolnienie rynku oraz rosnąca dojrzałość klientów powodują, że dla firm zajmujących się realizacją projektów informatycznych efektywność kosztowa stała się codziennym wyzwaniem. Udział w przetargach publicznych czy elektronicznych aukcjach internetowych powoduje, że dostarczanie wymiernych korzyści biznesowych nie jest już wystarczające. Sukcesu nie będzie jeżeli koszt oferowanych rozwiązań nie będzie dopasowywany do zasobności portfela zamawiających i ostrej konkurencji na rynku.
 
REKLAMA
ASSECO KSEF
Dla klientów to zalety, ale aby projekty były opłacalne dla dostawców, konieczne jest podejmowanie działań obniżających koszty wewnętrzne tych organizacji. Dostosowanie do takich realiów wymaga skutecznego inwestowania w rozwiązania informatyczne, pozwalające na podnoszenie wydajności i automatyzowanie prac. Jednym z obszarów, w którym możliwe są oszczędności, jest wsparcie narzędziowe w zakresie obsługi środowisk developerskich, testowych i serwisowych.

Dla Globemy, która na Polskim rynku od 14 lat zajmuje się realizacją wdrożeń informatycznych o wysokim stopniu dopasowania do potrzeb klienta, podróż do chmury prywatnej rozpoczęła się właśnie w tym miejscu.

Drogę wskazał Zarząd

W roku 2011, gdy przymierzaliśmy się do zmian w infrastrukturze plany rozwoju po stronie IT nie sięgały tak daleko. Projekty realizowane przez Globemę były przede wszystkim oparte na produktach do ewidencji zasobów przestrzennych i paszportyzacji, realizowanych w oparciu o platformę GE Smallworld oraz produkty własne. Rozwój firmy na rynki zagraniczne i rosnąca liczba klientów wymagały wprowadzenia zmian w infrastrukturze.

Przygotowywaliśmy się do wymiany dwóch maszyn. Testowej – przeznaczonej do przeprowadzania testów funkcjonalnych i instalacyjnych w ramach procesu przygotowania rozwiązań dla klienta. Serwisowej – odpowiedzialnej za przechowywanie kopii aktualnych rozwiązań działających u naszych klientów, objętych usługami wsparcia pogwarancyjnego. Głównymi powodami do zmiany była wydajność i pojemność naszych środowisk. Było też kilka ograniczeń funkcjonalnych, które planowaliśmy wyeliminować przy okazji odświeżenia infrastruktury.

Nowa strategia, przedstawiona przez Zarząd firmy w 2011 r. stała się wyraźnym impulsem do zmiany podejścia. Plan zakładał rozszerzenie portfela produktów i usług o rozwiązania z zakresu zarządzania pracami w terenie (WFM – Work Force Management), lokalizacji w czasie rzeczywistym, a także migracji, konwersji i wprowadzania danych. Dodatkowo, naszym celem było uzyskanie statusu Centrum Badawczo-Rozwojowego, a wraz z tym, obsługa kolejnych wdrożeń o charakterze badawczym, realizowanych na innych niż dotychczas platformach narzędziowych. Po stronie IT szybko zorientowaliśmy się, że zakres i sposób przeprowadzenia zmiany musi zostać całkowicie przedefiniowany, bo realizacja takich celów przenosi nas w nowy wymiar współpracy biznes-IT.

Dokąd chce iść biznes?

Patrząc z zewnątrz na firmę developerską mamy do czynienia z sytuacją, gdzie po stronie biznesu pojawiają się zespoły, które w innych organizacjach są częścią działów IT. Są to między innymi: programiści, architekci, analitycy i wdrożeniowcy, a więc ludzie, mający w obszarze IT wiedzę często porównywalną z administratorami, zajmującymi się utrzymaniem infrastruktury. To wymagający klient wewnętrzny, oczekujący ze względu na wysoką świadomość informatyczną, dużej autonomii w działaniu i usług na wysokim poziomie. Dla IT to duże wyzwanie, ale i duża zachęta do wdrażania nowoczesnych i skutecznych rozwiązań. Dobra komunikacja i otwartość na współpracę stanowi w takiej sytuacji klucz do uzyskania synergii.

Do realizacji projektu powołany został 3 osobowy zespół, odpowiedzialny za zebranie wymagań, przygotowanie propozycji rozwiązania i późniejsze wdrożenie. W ciągu 8 spotkań analitycznych zespół spotkał się w sumie z kilkunastoma specjalistami reprezentującymi wszystkie techniczne zespoły po stronie biznesu (trzy zespoły deweloperskie, dwa zespoły wdrożeniowe i jeden odpowiedzialny za testy i wsparcie pogwarancyjne). Oprócz reprezentacji działów osoby te zostały dobrane w taki sposób by reprezentowały różne technologie wykorzystywane po stronie biznesu. Celem spotkań była wymiana wiedzy na temat stosowanych i planowanych do wdrożenia platform technologicznych oraz określenie wymagań w zakresie konfiguracji, pojemności, wydajności i dostępności.

W sumie zebraliśmy ponad 100 wymagań, które następnie zostały ponownie przeanalizowane w pod kątem precyzji oraz zasięgu i wpływu na sposób działania całego działu technicznego. Na tej podstawie wymagania zostały pogrupowane. Nadano również priorytety. Przy okazji, doprecyzowane zostały podstawowe scenariusze tworzenia nowych środowisk, zależnie od przeznaczenia.

Istotny wkład w przygotowanie wymagań stanowiły założenia wydajnościowe i szacunki pracochłonności wybranych operacji. Zostały one zebrane w odniesieniu do dotychczasowych doświadczeń i możliwości posiadanej infrastruktury. Założyliśmy ambitne wymagania, których realizacja pozwoliłaby na osiągnięcie wymiernych korzyści. Objęły one takie zadania, jak:
  • Czas przygotowania nowego środowiska wraz z przeniesieniem danych,
  • Czas przywrócenia środowiska z zachowanego stanu,
  • Czas potrzebny do uruchomienia gotowego środowiska serwisowego wraz z podniesieniem wszystkich komponentów.

Następnie, określone zostały założenia, pozwalające na zwymiarowanie pojemności projektowanego rozwiązania, obejmujące parametry maszyn wirtualnych (liczba i moc procesorów, pamięć RAM), liczba przechowywanych środowisk, liczba jednocześnie uruchomionych środowisk. Wiedzieliśmy już czego potrzebujemy, teraz potrzebne było rozwiązanie, które to zapewni.

Dobrze, a czym się tam dostać?

Jeszcze na etapie analizy oczywistym okazało się, że rozwiązanie którego potrzebujemy zmierza w kierunku wirtualizacji. W ślad za tym pojawiło się też kilka istotnych wątpliwości. Po pierwsze nasza wiedza z tego obszaru była dość ograniczona. W firmie posiadaliśmy wiedzę na temat różnych rozwiązań wirtualizacyjnych, ale zakres ich stosowania, w naszym wypadku, ograniczał się do lokalnych rozwiązań, głównie w zakresie darmowych rozwiązań, stosowanych doraźnie w różnych projektach. Po drugie, mieliśmy wątpliwość, czy stać nas będzie na wdrożenie kompletnego, komercyjnego rozwiązania wirtualizacyjnego. Dotychczas takie rozwiązania były zarezerwowane dla dużych odbiorców korporacyjnych, w których działy IT są rozmiaru całej naszej firmy. I wreszcie, dopasowanie rozwiązania do specyfiki naszego działania, cechującej się dużą dynamiką (czas życia środowiska testowego to pojedyncze dni), dużą ilością danych (zbiory danych wykorzystywane w testach często obejmują 100 GB) oraz wydajność (wąskim gardłem są: szybkość dysków i opóźnienia w transmisji w sieci).

Reasumując, pytania przed którym stanęliśmy brzmiały: „Czy czas poświęcony na uzupełnienie wiedzy i analizę rozwiązań nie będzie zmarnowany, w przypadku, gdy ostatecznie nie będzie nas stać na takie wdrożenie?” „Czy nie lepiej od razu poszukać innych rozwiązań?”

Na szczęście, w zakresie finansowym dysponowaliśmy poważnym wsparciem. Po pierwsze, zmiany miały wspomagać nową strategię firmy, co dawało nam poparcie Zarządu w ramach wykorzystania środków własnych. Po drugie, również dzięki staraniom Zarządu, część kosztów wdrożenia mogła zostać sfinansowana z funduszy unijnych, w ramach projektu budowy Centrum Rozwoju Oprogramowania. Nie gwarantowało to realizacji dowolnej koncepcji, ale pozwalało na sięgnięcie po nowoczesne technologie i zaplanowanie zmiany o większym zakresie, z nastawieniem na wyższy zwrot z inwestycji dla właścicieli, oraz elastyczność i pojemność dla IT.

Pod uwagę braliśmy różne rozwiązania, ale w końcowym etapie skupiliśmy się na produktach VmWare i Microsoftu. Jeśli chodzi o funkcjonalność i pozycję na rynku wyższe notowania miał ten pierwszy. Jednak, dla naszych potrzeb różnice nie były aż tak duże i o wyborze platformy wirtualizacji ostatecznie przesądziła kwestia kosztów licencji na systemy operacyjne maszyn wirtualnych. W naszym wypadku są to głównie systemy serwerowe firmy Microsoft, a przy zakładanej liczbie 100-150 środowisk możliwość instalacji nielimitowanej liczby maszyn wirtualnych w ramach licencji Windows Server DataCenter Edition okazała się kluczowa.

Korzyści z podróży

Z perspektywy kilkumiesięcznego użytkowania możemy dziś powiedzieć, że inwestycja w chmurę prywatną przynosi faktyczne wymierne korzyści dla naszej firmy. Skrócenie czasu przygotowania środowisk, zmniejszenie liczby osób zaangażowanych w ich przygotowanie, korzystnie wpływa na bieżące koszty operacyjne. Jednak, to co będzie procentowało w dłuższej perspektywie to wewnętrzna zmiana naszej organizacji.

Po pierwsze, wypracowane rozwiązanie pozwala na skuteczne wspieranie nowej strategii firmy i jest przygotowane na dalsze wyzwania.

Po drugie, biznes bardzo kreatywnie wykorzystuje dostęp do nowych, dotychczas trudnych do realizacji lub pracochłonnych usług, takich jak:
  • Uzyskanie platformy pozwalającej na budowę heterogenicznych środowisk wieloserwerowych, w tym rozwiązań klastrowych, 
  • Przewidywalny, powtarzalny czas przygotowania nowego środowiska, na podstawie predefiniowanych szablonów,
  • Możliwość przeprowadzenie wiarygodnych testów instalacji, od czystego systemu, na wielu systemach operacyjnych,
  • Możliwość przeprowadzenie testów wydajnościowych i integracyjnych dla projektów o złożonej architekturze,
  • Możliwość współpracy zespołów developerskiego nad rozwojem aplikacji w środowiskach serwerowych bez konieczności zakupu dodatkowych dedykowanych maszyn.
I wreszcie, dzięki narzędziom automatyzującym pracę, znakomita większość tych usług może być zrealizowana samodzielnie bez bezpośredniego angażowania zespołu IT, co dodatkowo zachęca do samodzielnego, kreatywnego działania.

Dobrą ilustracją zachodzącej zmiany jest fakt, że coraz częściej pytania, z którymi spotykają się administratorzy nie brzmi już: „Czy możecie/dacie radę przygotować…?”. Obecnie to pytanie zaczyna się od: „A jak to możemy zrobić?”.

Tę chmurę już znamy, teraz idziemy dalej

Pozytywne doświadczenia z realizacji tego wdrożenia zaostrzyły nasz apetyt na osiągnięcie kolejnych korzyści. Jeszcze na etapie stabilizacji rozwiązania uruchomiony został równoległy projekt rozbudowy pojemności infrastruktury i rozpoczęcie migracji systemów produkcyjnych i pokazowych do istniejącej chmury. Już teraz rozwiązanie jest przygotowane do rozliczania wykorzystania zasobów z podziałem na poszczególne zespoły; czekamy na sygnał do uruchomienia. W chwili obecnej planowane są dalsze prace rozwojowe związane z automatyzacją utrzymania i obsługi naszej platformy w oparciu o kolejne komponenty z rodziny System Center.

Gdzie skończy się ta podróż? Myślę, że to dopiero początek…

Autor: Marek Godala - Dyrektor Działu Wsparcia Technicznego w firmie GLOBEMA

Źródło: Raport: OPTYMALIZACJA IT pod redakcją Roberta Jesionka - http://robertjesionek.files.wordpress.com

Najnowsze wiadomości

Kwantowy przełom w cyberochronie - nadchodząca dekada przepisze zasady szyfrowania na nowo
Przez długi czas cyfrowe bezpieczeństwo opierało się na prostym założeniu: współczesne komputery potrzebowałyby ogromnych zasobów i wielu lat, aby złamać silne algorytmy szyfrowania. Rozwój technologii kwantowej zaczyna jednak tę regułę podważać, a eksperci przewidują, że w perspektywie 5–10 lat może nadejść „dzień zero”. Jest to moment, w którym zaawansowana maszyna kwantowa będzie w stanie przełamać większość aktualnie stosowanych zabezpieczeń kryptograficznych w czasie liczonym nie w latach, lecz w godzinach.
PSI prezentuje nową identyfikację wizualną
psilogoW ramach realizowanej strategii transformacji PSI Software SE zaprezentowała nową identyfikację wizualną. Odświeżony wizerunek w spójny sposób oddaje technologiczne zaawansowanie firmy, jej głęboką wiedzę branżową oraz silne ukierunkowanie na potrzeby klientów. Zmiany te wzmacniają pozycję PSI jako innowacyjnego lidera technologicznego w obszarze skalowalnych rozwiązań informatycznych opartych na sztucznej inteligencji i chmurze, rozwijanych z myślą o energetyce i przemyśle.
PROMAG S.A. rozpoczyna wdrożenie systemu ERP IFS Cloud we współpracy z L-Systems
PROMAG S.A., lider w obszarze intralogistyki, rozpoczął wdrożenie systemu ERP IFS Cloud, który ma wesprzeć dalszy rozwój firmy oraz integrację kluczowych procesów biznesowych. Projekt realizowany jest we współpracy z firmą L-Systems i obejmuje m.in. obszary finansów, produkcji, logistyki, projektów oraz serwisu, odpowiadając na rosnącą skalę i złożoność realizowanych przedsięwzięć.
F5 rozszerza portfolio bezpieczeństwa o narzędzia do ochrony systemów AI w środowiskach enterprise
F5 ogłosiło wprowadzenie dwóch nowych rozwiązań - F5 AI Guardrails oraz F5 AI Red Team - które mają odpowiedzieć na jedno z kluczowych wyzwań współczesnych organizacji: bezpieczne wdrażanie i eksploatację systemów sztucznej inteligencji na dużą skalę. Nowa oferta łączy ochronę działania modeli AI w czasie rzeczywistym z ofensy
Snowflake + OpenAI: AI bliżej biznesu
Snowflake przyspiesza wykorzystanie danych i sztucznej inteligencji w firmach, przenosząc AI z fazy eksperymentów do codziennych procesów biznesowych. Nowe rozwiązania w ramach AI Data Cloud integrują modele AI bezpośrednio z danymi, narzędziami deweloperskimi i warstwą semantyczną. Partnerstwo z OpenAI, agent Cortex Code, Semantic View Autopilot oraz rozwój Snowflake Postgres pokazują, jak budować skalowalne, bezpieczne i mierzalne wdrożenia AI w skali całej organizacji.



Najnowsze artykuły

Magazyn bez błędów? Sprawdź, jak system WMS zmienia codzienność logistyki
SENTEWspółczesna logistyka wymaga nie tylko szybkości działania, lecz także maksymalnej precyzji – to właśnie te czynniki coraz częściej decydują o przewadze konkurencyjnej firm. Nawet drobne pomyłki w ewidencji stanów magazynowych, błędy przy przyjmowaniu dostaw czy nieprawidłowe rozmieszczenie towarów, mogą skutkować poważnymi stratami finansowymi i opóźnieniami w realizacji zamówień. W jaki sposób nowoczesne rozwiązania do zarządzania pomagają unikać takich sytuacji? Czym właściwie różni się tradycyjny system magazynowy od zaawansowanych rozwiązań klasy WMS (ang. Warehouse Management System)? I w jaki sposób inteligentne zarządzanie procesami magazynowymi realnie usprawnia codzienną pracę setek firm?
Migracja z SAP ECC na S4 HANA: Ryzyka, korzyści i alternatywne rozwiązania
W ostatnich latach wiele firm, które korzystają z systemu SAP ECC (Enterprise Central Component), stoi przed decyzją o przejściu na nowszą wersję — SAP S4 HANA. W obliczu końca wsparcia dla ECC w 2030 roku, temat ten staje się coraz bardziej aktualny. Przemiany technologiczne oraz rosnące oczekiwania związane z integracją nowych funkcji, jak sztuczna inteligencja (AI), skłaniają do refleksji nad tym, czy warto podjąć tak dużą zmianę w architekturze systemu. Przyjrzyjmy się głównym powodom, dla których firmy rozważają migrację do S4 HANA, ale także argumentom,  które mogą przemawiać za pozostaniem przy dotychczasowym systemie ECC, przynajmniej na krótki okres.
Jak maksymalizować zyski z MTO i MTS dzięki BPSC ERP?
BPSC FORTERROZysk przedsiębiorstwa produkcyjnego zależy nie tylko od wydajności maszyn, ale przede wszystkim od precyzyjnego planowania, realnych danych i umiejętnego zarządzania procesami. Dlatego firmy, które chcą skutecznie działać zarówno w modelu Make to Stock (MTS), jak i Make to Order (MTO), coraz częściej sięgają po rozwiązania klasy ERP, takie jak BPSC ERP.
Ponad połowa cyberataków zaczyna się od błędu człowieka
Ponad 2/3 firm w Polsce odnotowała w zeszłym roku co najmniej 1 incydent naruszenia bezpieczeństwa . Według danych Unit 42, zespołu analitycznego Palo Alto Networks, aż 60% ataków rozpoczyna się od działań wymierzonych w pracowników – najczęściej pod postacią phishingu i innych form inżynierii społecznej . To pokazuje, że w systemie ochrony organizacji pracownicy są kluczowym ogniwem – i że firmy muszą nie tylko edukować, ale też konsekwentnie egzekwować zasady cyberhigieny. Warto o tym pamiętać szczególnie teraz, w październiku, gdy obchodzimy Europejski Miesiąc Cyberbezpieczeństwa.
MES - holistyczne zarządzanie produkcją
Nowoczesna produkcja wymaga precyzji, szybkości i pełnej kontroli nad przebiegiem procesów. Rosnąca złożoność zleceń oraz presja kosztowa sprawiają, że ręczne raportowanie i intuicyjne zarządzanie coraz częściej okazują się niewystarczające. Firmy szukają rozwiązań, które umożliwiają im widzenie produkcji „na żywo”, a nie z opóźnieniem kilku godzin czy dni. W tym kontekście kluczową rolę odgrywają narzędzia, które porządkują informacje i pozwalają reagować natychmiast, zamiast po fakcie.

Przeczytaj Również

PSI prezentuje nową identyfikację wizualną

W ramach realizowanej strategii transformacji PSI Software SE zaprezentowała nową identyfikację wiz… / Czytaj więcej

Snowflake + OpenAI: AI bliżej biznesu

Snowflake przyspiesza wykorzystanie danych i sztucznej inteligencji w firmach, przenosząc AI z fazy… / Czytaj więcej

Nowa era komunikacji biznesowej, KSeF stał się faktem

Od 1 lutego 2026 roku, w Polsce z sukcesem rozpoczęła się nowa era elektronicznej komunikacji w biz… / Czytaj więcej

Hakerzy nie kradną już tylko haseł. Oni kradną Twój czas i przyszłość. Jak chronić ERP przed paraliżem?

Hakerzy coraz rzadziej koncentrują się wyłącznie na kradzieży haseł. Ich prawdziwym celem jest dziś… / Czytaj więcej

AI bez hype’u – od eksperymentów do infrastruktury decyzji

Sektory IT oraz logistyka stoją u progu fundamentalnej zmiany w podejściu do sztucznej inteligencji… / Czytaj więcej