Jak centra danych radzą sobie ze zwiększonym ruchem w Internecie?
Katgoria: IT Solutions / Utworzono: 05 maj 2020
Od lat w branży centrów przetwarzania danych istnieje zjawisko tworzenia nadmiaru mocy produkcyjnej i jej niedostatecznego wykorzystania. Do niedawna na świecie nierzadko można było zobaczyć placówkę przygotowaną na pobór energii elektrycznej przez rozwiązania IT na poziomie 10 megawoltoamperów (MVA), podczas gdy jej rzeczywiste obciążenie wynosiło tylko 2 MVA. Jeszcze bardziej powszechne było wykorzystanie mocy obliczeniowej serwerów na poziomie poniżej 10 procent i dotyczyło to nie tylko pojedynczych urządzeń czy szaf teleinformatycznych, ale całych systemów IT.
Społeczność zajmująca się efektywnością energetyczną i jej optymalizacją spędziła wiele lat na próbach wdrażania infrastruktury IT u klientów „na wymiar”. Pewną nadzieją była strategia modułowego rozwoju rozwiązań teleinformatycznych, dla których w nadmiarze (zgodnie z planami dalszej rozbudowy mocy obliczeniowej placówki) trzeba było zapewnić jedynie krytyczną infrastrukturę fizyczną, taką jak zasilanie i chłodzenie. Jednak w takiej sytuacji zapotrzebowanie na sprzęt IT często było znacznie zawyżone, co pozostawiało lukę pomiędzy oczekiwaniami projektowymi, a rzeczywistością.
Moc na zapas
Przyjęło się, że w tradycyjnych, korporacyjnych centrach danych jeden serwer (lub jeden procesor w serwerze) odpowiada za obsługę jednej konkretnej aplikacji. Dopiero wprowadzenie dodatkowej warstwy programowej pomiędzy sprzęt i aplikacje, czyli wirtualizacji, zapewniło bardziej optymalne wykorzystanie serwerów.
Organiczne centra danych
Rozwiązanie tego problemu pojawiło się dopiero w przypadku bardzo dużych centrów danych, które można przyrównać do ciężarówek o wydajności superszybkich samochodów.
Co więcej, kilka tego typu centrów danych może być połączonych ze sobą, dzięki czemu wstrzymanie pracy jednego z nich (np. wskutek katastrofy naturalnej lub planowanych prac serwisowych) powoduje jedynie niewielki spadek wydajności, a nie utratę usług.
Eksperci Vertiv wskazują, że za przykład mogą posłużyć zapytania wysyłane przez wyszukiwarkę Google. Każde z nich trafia w tym samym czasie do trzech różnych centrów danych znajdujących się w różnych miejscach na świecie. Ta placówka, która będzie najszybsza, dostarcza wyniki wyszukiwania. A jeśli któraś z nich będzie nieczynna, pozostały jeszcze dwie.
Podobne reguły dotyczą sieci, przez które wysyłane są zapytania. Jednak instalacja światłowodowych przewodów musi być zaplanowana z nadmiarem. Procedura umieszczenia kabli w ziemi oraz na dnie morza jest bardzo kosztowna. Planując nowe trasy, dostawca sieci musi zatem myśleć w perspektywie minimum dziesięcioletniej. Gdy część z jego infrastruktury jest już w pełni wykorzystana, po prostu wówczas uruchamia kolejne, niewykorzystane dotychczas połączenia światłowodowe.
Nieoczekiwane obciążenia
Dziś mamy do czynienia z bezprecedensową sytuacją, w ramach której ogrom ludzi – specjalistów i uczniów – wykonuje swoje obowiązki z domu, uczestniczy w wideokonferencjach oraz dzieli się wynikami pracy przez internet. Zauważają to także operatorzy telekomunikacyjni - w niedawnym komunikacie prasowym dyrektor ds. technologii w firmie BT stwierdził, że dotychczas w tej największej brytyjskiej sieci telekomunikacyjnej szczytowe natężenie ruchu obserwowano zwykle przez kilka godzin w niedzielny wieczór. Teraz ilość przesyłanych danych jest większa niż kiedykolwiek wcześniej i praktycznie nie spada.
I nawet jeśli łączność z niektórymi osobami stanowi wąskie gardło, cały ekosystem wciąż działa bardzo wydajnie. Także operatorzy nieustannie śledzą jakość łączy i rozbudowują je w razie potrzeby – obecna sytuacja to dla nich idealna okazja do weryfikacji elastyczności pracy własnej sieci. Tam, gdzie wymagana jest większa przepustowość, jest ona zapewniana w ciągu kilku dni. Na szczęście nie stanowi to dla firm dużego problemu dzięki temu, że wcześniej zainwestowały w swoje centra danych z dużym zapasem.
Źródło: Vertiv
Moc na zapas
Przyjęło się, że w tradycyjnych, korporacyjnych centrach danych jeden serwer (lub jeden procesor w serwerze) odpowiada za obsługę jednej konkretnej aplikacji. Dopiero wprowadzenie dodatkowej warstwy programowej pomiędzy sprzęt i aplikacje, czyli wirtualizacji, zapewniło bardziej optymalne wykorzystanie serwerów.
Nadal jednak sytuacja jest daleka od idealnej. Duże środowiska IT wciąż budowane są z zapasem, aby zaspokoić potrzeby użytkowników w trakcie największego obciążenia, np. w takie dni, jakimi dla sklepów internetowych są Czarny Piątek, Cyberponiedziałek, Boże Narodzenie czy okres wyprzedaży poświątecznych – zauważa Bartłomiej Raab, country manager w Vertiv Polska. – Aby zabezpieczyć się przed skutkami ewentualnej katastrofy, buduje się nadmiarowe systemy, gdzie w zapasowym centrum danych duża ich ilość jest replikowana – na wszelki wypadek.
Organiczne centra danych
Rozwiązanie tego problemu pojawiło się dopiero w przypadku bardzo dużych centrów danych, które można przyrównać do ciężarówek o wydajności superszybkich samochodów.
Są one w stu procentach zarządzane przez oprogramowanie, a dzięki unifikacji użytkowanego sprzętu do przetwarzania i przechowywania danych operator takiej placówki ma do dyspozycji dziesiątki tysięcy podłączonych do sieci procesorów i urządzeń pamięci masowej, które skutecznie działają jak jeden „organizm” – wyjaśnia Bartłomiej Raab.
Co więcej, kilka tego typu centrów danych może być połączonych ze sobą, dzięki czemu wstrzymanie pracy jednego z nich (np. wskutek katastrofy naturalnej lub planowanych prac serwisowych) powoduje jedynie niewielki spadek wydajności, a nie utratę usług.
Eksperci Vertiv wskazują, że za przykład mogą posłużyć zapytania wysyłane przez wyszukiwarkę Google. Każde z nich trafia w tym samym czasie do trzech różnych centrów danych znajdujących się w różnych miejscach na świecie. Ta placówka, która będzie najszybsza, dostarcza wyniki wyszukiwania. A jeśli któraś z nich będzie nieczynna, pozostały jeszcze dwie.
Podobne reguły dotyczą sieci, przez które wysyłane są zapytania. Jednak instalacja światłowodowych przewodów musi być zaplanowana z nadmiarem. Procedura umieszczenia kabli w ziemi oraz na dnie morza jest bardzo kosztowna. Planując nowe trasy, dostawca sieci musi zatem myśleć w perspektywie minimum dziesięcioletniej. Gdy część z jego infrastruktury jest już w pełni wykorzystana, po prostu wówczas uruchamia kolejne, niewykorzystane dotychczas połączenia światłowodowe.
Nieoczekiwane obciążenia
Dziś mamy do czynienia z bezprecedensową sytuacją, w ramach której ogrom ludzi – specjalistów i uczniów – wykonuje swoje obowiązki z domu, uczestniczy w wideokonferencjach oraz dzieli się wynikami pracy przez internet. Zauważają to także operatorzy telekomunikacyjni - w niedawnym komunikacie prasowym dyrektor ds. technologii w firmie BT stwierdził, że dotychczas w tej największej brytyjskiej sieci telekomunikacyjnej szczytowe natężenie ruchu obserwowano zwykle przez kilka godzin w niedzielny wieczór. Teraz ilość przesyłanych danych jest większa niż kiedykolwiek wcześniej i praktycznie nie spada.
I nawet jeśli łączność z niektórymi osobami stanowi wąskie gardło, cały ekosystem wciąż działa bardzo wydajnie. Także operatorzy nieustannie śledzą jakość łączy i rozbudowują je w razie potrzeby – obecna sytuacja to dla nich idealna okazja do weryfikacji elastyczności pracy własnej sieci. Tam, gdzie wymagana jest większa przepustowość, jest ona zapewniana w ciągu kilku dni. Na szczęście nie stanowi to dla firm dużego problemu dzięki temu, że wcześniej zainwestowały w swoje centra danych z dużym zapasem.
Źródło: Vertiv
Najnowsze wiadomości
Kwantowy przełom w cyberochronie - nadchodząca dekada przepisze zasady szyfrowania na nowo
Przez długi czas cyfrowe bezpieczeństwo opierało się na prostym założeniu: współczesne komputery potrzebowałyby ogromnych zasobów i wielu lat, aby złamać silne algorytmy szyfrowania. Rozwój technologii kwantowej zaczyna jednak tę regułę podważać, a eksperci przewidują, że w perspektywie 5–10 lat może nadejść „dzień zero”. Jest to moment, w którym zaawansowana maszyna kwantowa będzie w stanie przełamać większość aktualnie stosowanych zabezpieczeń kryptograficznych w czasie liczonym nie w latach, lecz w godzinach.
PSI prezentuje nową identyfikację wizualną
W ramach realizowanej strategii transformacji PSI Software SE zaprezentowała nową identyfikację wizualną. Odświeżony wizerunek w spójny sposób oddaje technologiczne zaawansowanie firmy, jej głęboką wiedzę branżową oraz silne ukierunkowanie na potrzeby klientów. Zmiany te wzmacniają pozycję PSI jako innowacyjnego lidera technologicznego w obszarze skalowalnych rozwiązań informatycznych opartych na sztucznej inteligencji i chmurze, rozwijanych z myślą o energetyce i przemyśle.
W ramach realizowanej strategii transformacji PSI Software SE zaprezentowała nową identyfikację wizualną. Odświeżony wizerunek w spójny sposób oddaje technologiczne zaawansowanie firmy, jej głęboką wiedzę branżową oraz silne ukierunkowanie na potrzeby klientów. Zmiany te wzmacniają pozycję PSI jako innowacyjnego lidera technologicznego w obszarze skalowalnych rozwiązań informatycznych opartych na sztucznej inteligencji i chmurze, rozwijanych z myślą o energetyce i przemyśle.
PROMAG S.A. rozpoczyna wdrożenie systemu ERP IFS Cloud we współpracy z L-Systems
PROMAG S.A., lider w obszarze intralogistyki, rozpoczął wdrożenie systemu ERP IFS Cloud, który ma wesprzeć dalszy rozwój firmy oraz integrację kluczowych procesów biznesowych. Projekt realizowany jest we współpracy z firmą L-Systems i obejmuje m.in. obszary finansów, produkcji, logistyki, projektów oraz serwisu, odpowiadając na rosnącą skalę i złożoność realizowanych przedsięwzięć.
F5 rozszerza portfolio bezpieczeństwa o narzędzia do ochrony systemów AI w środowiskach enterprise
F5 ogłosiło wprowadzenie dwóch nowych rozwiązań - F5 AI Guardrails oraz F5 AI Red Team - które mają odpowiedzieć na jedno z kluczowych wyzwań współczesnych organizacji: bezpieczne wdrażanie i eksploatację systemów sztucznej inteligencji na dużą skalę. Nowa oferta łączy ochronę działania modeli AI w czasie rzeczywistym z ofensy
Snowflake + OpenAI: AI bliżej biznesu
Snowflake przyspiesza wykorzystanie danych i sztucznej inteligencji w firmach, przenosząc AI z fazy eksperymentów do codziennych procesów biznesowych. Nowe rozwiązania w ramach AI Data Cloud integrują modele AI bezpośrednio z danymi, narzędziami deweloperskimi i warstwą semantyczną. Partnerstwo z OpenAI, agent Cortex Code, Semantic View Autopilot oraz rozwój Snowflake Postgres pokazują, jak budować skalowalne, bezpieczne i mierzalne wdrożenia AI w skali całej organizacji.
Najnowsze artykuły
Magazyn bez błędów? Sprawdź, jak system WMS zmienia codzienność logistyki
Współczesna logistyka wymaga nie tylko szybkości działania, lecz także maksymalnej precyzji – to właśnie te czynniki coraz częściej decydują o przewadze konkurencyjnej firm. Nawet drobne pomyłki w ewidencji stanów magazynowych, błędy przy przyjmowaniu dostaw czy nieprawidłowe rozmieszczenie towarów, mogą skutkować poważnymi stratami finansowymi i opóźnieniami w realizacji zamówień. W jaki sposób nowoczesne rozwiązania do zarządzania pomagają unikać takich sytuacji? Czym właściwie różni się tradycyjny system magazynowy od zaawansowanych rozwiązań klasy WMS (ang. Warehouse Management System)? I w jaki sposób inteligentne zarządzanie procesami magazynowymi realnie usprawnia codzienną pracę setek firm?
Migracja z SAP ECC na S4 HANA: Ryzyka, korzyści i alternatywne rozwiązania
W ostatnich latach wiele firm, które korzystają z systemu SAP ECC (Enterprise Central Component), stoi przed decyzją o przejściu na nowszą wersję — SAP S4 HANA. W obliczu końca wsparcia dla ECC w 2030 roku, temat ten staje się coraz bardziej aktualny. Przemiany technologiczne oraz rosnące oczekiwania związane z integracją nowych funkcji, jak sztuczna inteligencja (AI), skłaniają do refleksji nad tym, czy warto podjąć tak dużą zmianę w architekturze systemu. Przyjrzyjmy się głównym powodom, dla których firmy rozważają migrację do S4 HANA, ale także argumentom, które mogą przemawiać za pozostaniem przy dotychczasowym systemie ECC, przynajmniej na krótki okres.
Jak maksymalizować zyski z MTO i MTS dzięki BPSC ERP?
Zysk przedsiębiorstwa produkcyjnego zależy nie tylko od wydajności maszyn, ale przede wszystkim od precyzyjnego planowania, realnych danych i umiejętnego zarządzania procesami. Dlatego firmy, które chcą skutecznie działać zarówno w modelu Make to Stock (MTS), jak i Make to Order (MTO), coraz częściej sięgają po rozwiązania klasy ERP, takie jak BPSC ERP.
Ponad połowa cyberataków zaczyna się od błędu człowieka
Ponad 2/3 firm w Polsce odnotowała w zeszłym roku co najmniej 1 incydent naruszenia bezpieczeństwa . Według danych Unit 42, zespołu analitycznego Palo Alto Networks, aż 60% ataków rozpoczyna się od działań wymierzonych w pracowników – najczęściej pod postacią phishingu i innych form inżynierii społecznej . To pokazuje, że w systemie ochrony organizacji pracownicy są kluczowym ogniwem – i że firmy muszą nie tylko edukować, ale też konsekwentnie egzekwować zasady cyberhigieny. Warto o tym pamiętać szczególnie teraz, w październiku, gdy obchodzimy Europejski Miesiąc Cyberbezpieczeństwa.
MES - holistyczne zarządzanie produkcją
Nowoczesna produkcja wymaga precyzji, szybkości i pełnej kontroli nad przebiegiem procesów. Rosnąca złożoność zleceń oraz presja kosztowa sprawiają, że ręczne raportowanie i intuicyjne zarządzanie coraz częściej okazują się niewystarczające. Firmy szukają rozwiązań, które umożliwiają im widzenie produkcji „na żywo”, a nie z opóźnieniem kilku godzin czy dni. W tym kontekście kluczową rolę odgrywają narzędzia, które porządkują informacje i pozwalają reagować natychmiast, zamiast po fakcie.
Przeczytaj Również
Infrastruktura w punkcie zwrotnym - 5 prognoz kształtujących AI, odporność i suwerenność danych w 2026 roku
W 2026 roku zyskają firmy, które traktują infrastrukturę nie jako obszar generujący koszty, lecz ja… / Czytaj więcej
Tylko 7% firm w Europie wykorzystuje w pełni potencjał AI
72% firm w regionie EMEA uznaje rozwój narzędzi bazujących na sztucznej inteligencji za priorytet s… / Czytaj więcej
Chmura publiczna w Unii Europejskiej – między innowacją a odpowiedzialnością za dane
Transformacja cyfrowa w Europie coraz mocniej opiera się na chmurze publicznej, która stała się fun… / Czytaj więcej
Jak Cisco pomaga Europie spłacić dług technologiczny w krytycznej infrastrukturze sieciowej
Cyfryzacja, rozwój sztucznej inteligencji i nadchodzące komputery kwantowe wymagają od Europy stabi… / Czytaj więcej
MŚP inwestują w AI, kompetencje pracowników nadal wyzwaniem
Europejskie małe i średnie firmy coraz śmielej inwestują w sztuczną inteligencję, ale to kompetencj… / Czytaj więcej
AP EU AI Cloud: nowy standard suwerennej chmury i AI dla europejskich organizacji
SAP EU AI Cloud to zapowiedziana 27 listopada 2025 r. platforma, która łączy dotychczasowe inicjaty… / Czytaj więcej

