Wysoko w chmurach
Katgoria: IT SOLUTIONS / Utworzono: 14 styczeń 2016
Wysoko w chmurach
Kiedyś backup był najbardziej niewdzięczną pracą w dziale IT. Za dobre zarządzanie kopiami zapasowymi nigdy nie dostawało się podwyżki, ale utrata danych mogła kosztować posadę. Kiedy na staż do działu IT trafiali studenci, to właśnie im przypadało w udziale zmienianie taśm i zawożenie ich do bankowego sejfu albo w inne bezpieczne miejsce. Backup był ciężkim i czasochłonnym zadaniem, które okazywało się ważne dopiero pod koniec procesu. Jednak w niedawnych latach tworzenie kopii zapasowych na dysku zmieniło obraz rzeczy, a chmura oferuje obecnie mnóstwo nowych możliwości. Czym właściwie jest backup w chmurze, jakie wiążą się z nim wyzwania i czy można polegać wyłącznie na chmurowych kopiach zapasowych?
Backup w chmurze obejmuje nie tylko kopie lokalnych danych, które przekazuje się do chmury, ale również kopie danych przechowywanych w chmurze. Obecnie coraz więcej podstawowych danych firm znajduje się w chmurze. Najlepsze przykłady to Office 365, Exchange Online i OneDrive, a także korporacyjne usługi synchronizacji i udostępniania plików (Enterprise File Sync and Share, EFSS). Coraz więcej firm decyduje się na przeniesienie danych do tych chmurowych środowisk SaaS, więc jest bardzo istotne, aby chronić je w takim stopniu i tworzyć ich kopie zapasowe. Określa się to mianem backupu z chmury do chmury.
Chmura prywatna w siedzibie firmy albo u dostawcy usług
Ci, którzy decydują się na backup w chmurze, nie muszą wcale używać chmur publicznych oferowanych przez dużych dostawców usług. Mogą również zaopatrzyć się w odpowiednie urządzenia, aby samodzielnie skonfigurować chmurę prywatną albo skorzystać z zamkniętej chmury zarządzanej przez zaufanego dostawcę usług IT. W obu przypadkach używa się wielu urządzeń do backupu, które tworzą chmurę prywatną. W krajach niemieckojęzycznych wiele firm wybiera lokalnych dostawców usług ze względu na bliskość, wiarygodność, a często również większe bezpieczeństwo prawne.
Odporne na awarie zarządzanie backupem w chmurze
Podobnie jak w przypadku każdego innego rodzaj replikacji danych poza siedzibą firmy, najważniejszą funkcją backupu w chmurze jest przywracanie systemu po awarii. Jeśli dane zostaną utracone zarówno w źródle podstawowym, jak i w urządzeniu, na przykład wskutek katastrofy naturalnej, pożaru lub wybuchu, będzie je można odtworzyć z chmury.
Backup i usuwanie skutków awarii w chmurze to nowe trendy, ale chmura oferuje również istotne korzyści w trzecim aspekcie backupu, czyli w zarządzaniu kopiami zapasowymi. Fizyczne rozdzielenie urządzenia i systemu administracyjnego oznacza, że system pozostaje nienaruszony i można do niego uzyskać dostęp z innego miejsca. Jest to bardzo przydatne, nie tylko w razie katastrofy. Wspólny interfejs do monitorowania kopii zapasowych w różnych oddziałach oszczędza pieniądze na co dzień. Personel nie musi zajmować się backupem w głównej siedzibie firmy, w oddziałach lub w innych biurach. Nawet w dużych firmach, które mają wiele oddziałów, zaledwie kilku administratorów może kontrolować wszystkie kopie zapasowe na całym świecie, a w razie potrzeby zarządzać przywracaniem danych w dowolnym oddziale.
Wykorzystanie pasma – największy problem backupu w chmurze
W niemal wszystkich firmach ilość danych rośnie wykładniczo, co zwiększa koszty połączenia internetowego i infrastruktury sieciowej. Aby zagwarantować, że przesyłanie danych do chmury nie wpłynie na wydajność sieci oraz na łączność internetową kluczowych aplikacji, nowoczesne rozwiązania używają backupu przyrostowego i deduplikacji na bieżąco.
W backupie przyrostowym wykonuje się kopie zapasowe tylko tych danych, które są nowe lub zostały zmienione. Pełny backup przeprowadza się raz na początku, a wszystkie późniejsze kopie mają charakter przyrostowy. Bieżąca weryfikacja gwarantuje, że dane kopii są kompletne i użyteczne, więc nie trzeba już regularnie wykonywać pełnych kopii i zaczynać wszystkiego od początku.
Innym bardzo skutecznym narzędziem do ograniczania ilości przesyłanych danych jest deduplikacja. Radykalnie zmniejsza ona ilość danych, na przykład w sytuacjach, kiedy tworzy się kopie zapasowe identycznych systemów operacyjnych działających w wielu urządzeniach. Deduplikacja na bieżąco (online) ogranicza zużycie pasma i pamięci masowej od samego początku. Agent działający w źródle danych, na przykład w serwerze, oblicza wartość skrótu każdego bloku danych. Następnie wysyła ją do lokalnego urządzenia do backupu, które porównuje ją z istniejącymi, przetworzonymi wcześniej danymi. Jeśli wartość skrótu jest unikatowa, urządzenie żąda przesłania bloku; jeśli jest zduplikowana, urządzenie po prostu dodaje wskaźnik.
Poleganie wyłącznie na backupie w chmurze
Z powodu ilości danych i czasu ich przywracania, poleganie wyłącznie na backupie w chmurze byłoby nietypowe. Przywracanie danych z lokalnego urządzenia jest szybsze, a urządzenie to stanowi zarazem bramę do efektywnej komunikacji z chmurą. Jednak w miarę postępów w backupie chmurowym oraz rosnącej dostępności pasma i szybkości sieci będzie to stanowiło coraz mniejszy problem.
Przetwarzanie danych w chmurze nieustannie się rozwija. Prognozuje się, że w 2018 r. 58 proc. procesów działających w chmurze będzie procesami SaaS, w porównaniu z 41 proc. w 2013 r. Przeniesienie danych do chmury zapewnia wiele korzyści, a organizacje zaczynają sobie uświadamiać jej potencjał. Choć obecnie lokalne kopie zapasowe są nadal potrzebne, backup w chmurze nieustannie ewoluuje i długo będzie ważną częścią krajobrazu IT.
Wieland Alge, wiceprezes i dyrektor generalny na kraje EMEA, Barracuda Networks
Chmura prywatna w siedzibie firmy albo u dostawcy usług
Ci, którzy decydują się na backup w chmurze, nie muszą wcale używać chmur publicznych oferowanych przez dużych dostawców usług. Mogą również zaopatrzyć się w odpowiednie urządzenia, aby samodzielnie skonfigurować chmurę prywatną albo skorzystać z zamkniętej chmury zarządzanej przez zaufanego dostawcę usług IT. W obu przypadkach używa się wielu urządzeń do backupu, które tworzą chmurę prywatną. W krajach niemieckojęzycznych wiele firm wybiera lokalnych dostawców usług ze względu na bliskość, wiarygodność, a często również większe bezpieczeństwo prawne.
Odporne na awarie zarządzanie backupem w chmurze
Podobnie jak w przypadku każdego innego rodzaj replikacji danych poza siedzibą firmy, najważniejszą funkcją backupu w chmurze jest przywracanie systemu po awarii. Jeśli dane zostaną utracone zarówno w źródle podstawowym, jak i w urządzeniu, na przykład wskutek katastrofy naturalnej, pożaru lub wybuchu, będzie je można odtworzyć z chmury.
Backup i usuwanie skutków awarii w chmurze to nowe trendy, ale chmura oferuje również istotne korzyści w trzecim aspekcie backupu, czyli w zarządzaniu kopiami zapasowymi. Fizyczne rozdzielenie urządzenia i systemu administracyjnego oznacza, że system pozostaje nienaruszony i można do niego uzyskać dostęp z innego miejsca. Jest to bardzo przydatne, nie tylko w razie katastrofy. Wspólny interfejs do monitorowania kopii zapasowych w różnych oddziałach oszczędza pieniądze na co dzień. Personel nie musi zajmować się backupem w głównej siedzibie firmy, w oddziałach lub w innych biurach. Nawet w dużych firmach, które mają wiele oddziałów, zaledwie kilku administratorów może kontrolować wszystkie kopie zapasowe na całym świecie, a w razie potrzeby zarządzać przywracaniem danych w dowolnym oddziale.
Wykorzystanie pasma – największy problem backupu w chmurze
W niemal wszystkich firmach ilość danych rośnie wykładniczo, co zwiększa koszty połączenia internetowego i infrastruktury sieciowej. Aby zagwarantować, że przesyłanie danych do chmury nie wpłynie na wydajność sieci oraz na łączność internetową kluczowych aplikacji, nowoczesne rozwiązania używają backupu przyrostowego i deduplikacji na bieżąco.
W backupie przyrostowym wykonuje się kopie zapasowe tylko tych danych, które są nowe lub zostały zmienione. Pełny backup przeprowadza się raz na początku, a wszystkie późniejsze kopie mają charakter przyrostowy. Bieżąca weryfikacja gwarantuje, że dane kopii są kompletne i użyteczne, więc nie trzeba już regularnie wykonywać pełnych kopii i zaczynać wszystkiego od początku.
Innym bardzo skutecznym narzędziem do ograniczania ilości przesyłanych danych jest deduplikacja. Radykalnie zmniejsza ona ilość danych, na przykład w sytuacjach, kiedy tworzy się kopie zapasowe identycznych systemów operacyjnych działających w wielu urządzeniach. Deduplikacja na bieżąco (online) ogranicza zużycie pasma i pamięci masowej od samego początku. Agent działający w źródle danych, na przykład w serwerze, oblicza wartość skrótu każdego bloku danych. Następnie wysyła ją do lokalnego urządzenia do backupu, które porównuje ją z istniejącymi, przetworzonymi wcześniej danymi. Jeśli wartość skrótu jest unikatowa, urządzenie żąda przesłania bloku; jeśli jest zduplikowana, urządzenie po prostu dodaje wskaźnik.
Poleganie wyłącznie na backupie w chmurze
Z powodu ilości danych i czasu ich przywracania, poleganie wyłącznie na backupie w chmurze byłoby nietypowe. Przywracanie danych z lokalnego urządzenia jest szybsze, a urządzenie to stanowi zarazem bramę do efektywnej komunikacji z chmurą. Jednak w miarę postępów w backupie chmurowym oraz rosnącej dostępności pasma i szybkości sieci będzie to stanowiło coraz mniejszy problem.
Przetwarzanie danych w chmurze nieustannie się rozwija. Prognozuje się, że w 2018 r. 58 proc. procesów działających w chmurze będzie procesami SaaS, w porównaniu z 41 proc. w 2013 r. Przeniesienie danych do chmury zapewnia wiele korzyści, a organizacje zaczynają sobie uświadamiać jej potencjał. Choć obecnie lokalne kopie zapasowe są nadal potrzebne, backup w chmurze nieustannie ewoluuje i długo będzie ważną częścią krajobrazu IT.
Wieland Alge, wiceprezes i dyrektor generalny na kraje EMEA, Barracuda Networks
Najnowsze wiadomości
Kwantowy przełom w cyberochronie - nadchodząca dekada przepisze zasady szyfrowania na nowo
Przez długi czas cyfrowe bezpieczeństwo opierało się na prostym założeniu: współczesne komputery potrzebowałyby ogromnych zasobów i wielu lat, aby złamać silne algorytmy szyfrowania. Rozwój technologii kwantowej zaczyna jednak tę regułę podważać, a eksperci przewidują, że w perspektywie 5–10 lat może nadejść „dzień zero”. Jest to moment, w którym zaawansowana maszyna kwantowa będzie w stanie przełamać większość aktualnie stosowanych zabezpieczeń kryptograficznych w czasie liczonym nie w latach, lecz w godzinach.
PSI prezentuje nową identyfikację wizualną
W ramach realizowanej strategii transformacji PSI Software SE zaprezentowała nową identyfikację wizualną. Odświeżony wizerunek w spójny sposób oddaje technologiczne zaawansowanie firmy, jej głęboką wiedzę branżową oraz silne ukierunkowanie na potrzeby klientów. Zmiany te wzmacniają pozycję PSI jako innowacyjnego lidera technologicznego w obszarze skalowalnych rozwiązań informatycznych opartych na sztucznej inteligencji i chmurze, rozwijanych z myślą o energetyce i przemyśle.
W ramach realizowanej strategii transformacji PSI Software SE zaprezentowała nową identyfikację wizualną. Odświeżony wizerunek w spójny sposób oddaje technologiczne zaawansowanie firmy, jej głęboką wiedzę branżową oraz silne ukierunkowanie na potrzeby klientów. Zmiany te wzmacniają pozycję PSI jako innowacyjnego lidera technologicznego w obszarze skalowalnych rozwiązań informatycznych opartych na sztucznej inteligencji i chmurze, rozwijanych z myślą o energetyce i przemyśle.
PROMAG S.A. rozpoczyna wdrożenie systemu ERP IFS Cloud we współpracy z L-Systems
PROMAG S.A., lider w obszarze intralogistyki, rozpoczął wdrożenie systemu ERP IFS Cloud, który ma wesprzeć dalszy rozwój firmy oraz integrację kluczowych procesów biznesowych. Projekt realizowany jest we współpracy z firmą L-Systems i obejmuje m.in. obszary finansów, produkcji, logistyki, projektów oraz serwisu, odpowiadając na rosnącą skalę i złożoność realizowanych przedsięwzięć.
F5 rozszerza portfolio bezpieczeństwa o narzędzia do ochrony systemów AI w środowiskach enterprise
F5 ogłosiło wprowadzenie dwóch nowych rozwiązań - F5 AI Guardrails oraz F5 AI Red Team - które mają odpowiedzieć na jedno z kluczowych wyzwań współczesnych organizacji: bezpieczne wdrażanie i eksploatację systemów sztucznej inteligencji na dużą skalę. Nowa oferta łączy ochronę działania modeli AI w czasie rzeczywistym z ofensy
Snowflake + OpenAI: AI bliżej biznesu
Snowflake przyspiesza wykorzystanie danych i sztucznej inteligencji w firmach, przenosząc AI z fazy eksperymentów do codziennych procesów biznesowych. Nowe rozwiązania w ramach AI Data Cloud integrują modele AI bezpośrednio z danymi, narzędziami deweloperskimi i warstwą semantyczną. Partnerstwo z OpenAI, agent Cortex Code, Semantic View Autopilot oraz rozwój Snowflake Postgres pokazują, jak budować skalowalne, bezpieczne i mierzalne wdrożenia AI w skali całej organizacji.
Najnowsze artykuły
Magazyn bez błędów? Sprawdź, jak system WMS zmienia codzienność logistyki
Współczesna logistyka wymaga nie tylko szybkości działania, lecz także maksymalnej precyzji – to właśnie te czynniki coraz częściej decydują o przewadze konkurencyjnej firm. Nawet drobne pomyłki w ewidencji stanów magazynowych, błędy przy przyjmowaniu dostaw czy nieprawidłowe rozmieszczenie towarów, mogą skutkować poważnymi stratami finansowymi i opóźnieniami w realizacji zamówień. W jaki sposób nowoczesne rozwiązania do zarządzania pomagają unikać takich sytuacji? Czym właściwie różni się tradycyjny system magazynowy od zaawansowanych rozwiązań klasy WMS (ang. Warehouse Management System)? I w jaki sposób inteligentne zarządzanie procesami magazynowymi realnie usprawnia codzienną pracę setek firm?
Migracja z SAP ECC na S4 HANA: Ryzyka, korzyści i alternatywne rozwiązania
W ostatnich latach wiele firm, które korzystają z systemu SAP ECC (Enterprise Central Component), stoi przed decyzją o przejściu na nowszą wersję — SAP S4 HANA. W obliczu końca wsparcia dla ECC w 2030 roku, temat ten staje się coraz bardziej aktualny. Przemiany technologiczne oraz rosnące oczekiwania związane z integracją nowych funkcji, jak sztuczna inteligencja (AI), skłaniają do refleksji nad tym, czy warto podjąć tak dużą zmianę w architekturze systemu. Przyjrzyjmy się głównym powodom, dla których firmy rozważają migrację do S4 HANA, ale także argumentom, które mogą przemawiać za pozostaniem przy dotychczasowym systemie ECC, przynajmniej na krótki okres.
Jak maksymalizować zyski z MTO i MTS dzięki BPSC ERP?
Zysk przedsiębiorstwa produkcyjnego zależy nie tylko od wydajności maszyn, ale przede wszystkim od precyzyjnego planowania, realnych danych i umiejętnego zarządzania procesami. Dlatego firmy, które chcą skutecznie działać zarówno w modelu Make to Stock (MTS), jak i Make to Order (MTO), coraz częściej sięgają po rozwiązania klasy ERP, takie jak BPSC ERP.
Ponad połowa cyberataków zaczyna się od błędu człowieka
Ponad 2/3 firm w Polsce odnotowała w zeszłym roku co najmniej 1 incydent naruszenia bezpieczeństwa . Według danych Unit 42, zespołu analitycznego Palo Alto Networks, aż 60% ataków rozpoczyna się od działań wymierzonych w pracowników – najczęściej pod postacią phishingu i innych form inżynierii społecznej . To pokazuje, że w systemie ochrony organizacji pracownicy są kluczowym ogniwem – i że firmy muszą nie tylko edukować, ale też konsekwentnie egzekwować zasady cyberhigieny. Warto o tym pamiętać szczególnie teraz, w październiku, gdy obchodzimy Europejski Miesiąc Cyberbezpieczeństwa.
MES - holistyczne zarządzanie produkcją
Nowoczesna produkcja wymaga precyzji, szybkości i pełnej kontroli nad przebiegiem procesów. Rosnąca złożoność zleceń oraz presja kosztowa sprawiają, że ręczne raportowanie i intuicyjne zarządzanie coraz częściej okazują się niewystarczające. Firmy szukają rozwiązań, które umożliwiają im widzenie produkcji „na żywo”, a nie z opóźnieniem kilku godzin czy dni. W tym kontekście kluczową rolę odgrywają narzędzia, które porządkują informacje i pozwalają reagować natychmiast, zamiast po fakcie.
Przeczytaj Również
Technologie na żądanie zyskują na popularności, ale za jaką cenę?
W erze dynamicznej transformacji cyfrowej organizacje coraz chętniej sięgają po technologie dostępn… / Czytaj więcej
Jaki serwer dla ERP, CRM czy BI? VPS, dedykowany, chmura a może on-premise?
Wybór właściwej infrastruktury serwerowej dla systemów ERP, CRM czy Business Intelligence to jedna… / Czytaj więcej
Strategiczna przewaga czy kosztowny mit? Kto wygrywa dzięki chmurze?
Chmura miała być odpowiedzią na wyzwania sektora finansowego: przestarzałą infrastrukturę, rozprosz… / Czytaj więcej
Nowe narzędzie, nowe możliwości – Adrian Guzy z CTDI o innowacyjności, kulturze pracy z danymi i analityce w Microsoft Fabric
W nowej siedzibie CTDI w Sękocinie Starym pod Warszawą tafle szkła odbijają poranne słońce, a wnętr… / Czytaj więcej
Hiperautomatyzacja: kolejny etap rewolucji czy buzzword?
Automatyzacja to już nie tylko boty i proste skrypty – kolejnym krokiem jest hiperautomatyzacja, kt… / Czytaj więcej
Jak agenci AI zrewolucjonizują przemysł, zwiększą produktywność i obniżą koszty
Obecnie każda firma chce być firmą AI, ale według McKinsey tylko 1% przedsiębiorstw uważa, że osiąg… / Czytaj więcej

