Przetwarzanie w eksaskali, czyli początek ery HPC
Katgoria: IT Solutions / Utworzono: 22 wrzesień 2021
High Performance Computing, czyli zdolność systemów IT do wykonywania obliczeń o ogromnej wydajności, kojarzona z tzw. superkomputerami zaczyna przenikać do biznesowego mainstreamu. Według wyliczeń ResearchAndMarkets globalny rynek HPC już do 2025r ma sięgnąć niemal 50 miliardów $.
Ale to tylko jedno z doniesień zwiastujących coraz powszechniejszą adaptację rozwiązań HPC, również w branżach dotąd po nie niesięgających. Kolejne informuje, że już do końca tego roku opracowany zostanie pierwszy na świecie eksaskalowy superkomputer – Aurora.
Miliard miliardów w sekundę
Takiego tempa i zakresu obliczeń jak dotąd nie udało się jeszcze nigdy osiągnąć. Wiele wskazuje, że mamy przed sobą wejście w kolejną erę computingu.
Już dziś, zgodnie z informacjami od IDC, danych przyrasta 33 razy szybciej niż zdolność i gotowość firm do ich przetworzenia i analizy.
Do czego zdolny jest exascale computing? Obecnie, najmocniejsze superkomputery są w stanie wykonywać ponad 1015 (milion miliardów) operacji na sekundę. Oznacza to zatem wydajność w petaskali. Kilka najbardziej wydajnych systemów jest dzisiaj w stanie przekroczyć 1017 (minimum sto milionów miliardów) operacji w ciągu sekundy. Początek nowej dekady będzie jednak przełomowy pod kątem przekroczenia nieosiągalnej dotąd wydajności – mianowicie eksaskali. Ta generacja superkomputerów będzie w stanie wykonywać 1018 (miliard miliardów) operacji na sekundę. W pewnym przybliżeniu, jest to moc obliczeniowa równowarta wszystkim smartfonom użytkowanym przez całą populację krajów członkowskich Unii Europejskiej.
Potrzeba matką wynalazków
Potrzebę sięgania po znaczenie wydajniejsze narzędzia analizy i operowania na danych stymuluje przede wszystkim ich galopujący przyrost i dynamicznie rozrastające się ekosystemy informatyczne – w tym Internetu Rzeczy - w firmach, administracji publicznej, zakładach produkcyjnych czy placówkach medycznych. Tylko w 2020r liczba globalnie wygenerowanych danych sięgnęła, zgodnie z analizą IDC, 64,2 ZB (zettabajta).
UE napędza analitykę
Działania w zakresie podnoszenia mocy obliczeniowej na nowy poziom są także jednym z kluczowych założeń Europejskiego Programu Cyfrowego (Digital Europe Programme). Ogólna wartość lokowanego w nim finansowania, gdzie obszarem supercomputingu wyróżnić możemy także sztuczną inteligencję czy cyberbezpieczeństwo, wynosi 7,6 miliarda euro.
Źródło: Aruba Cloud
Miliard miliardów w sekundę
Takiego tempa i zakresu obliczeń jak dotąd nie udało się jeszcze nigdy osiągnąć. Wiele wskazuje, że mamy przed sobą wejście w kolejną erę computingu.
To naturalne następstwo tak znacznego przyrostu danych, które przedsiębiorstwa i instytucje gromadzą i coraz częściej „wyławiają” z nich to co istotne, strukturyzując i doceniając swoje cyfrowe biblioteki. Oczywiście, dzisiaj wybrane branże realnie potrzebują aż takiej mocy obliczeniowej, jednak sytuacja będzie się zmieniać bardzo dynamicznie – tłumaczy Marcin Zmaczyński, Head of Marketing CEE w Aruba Cloud.
Już dziś, zgodnie z informacjami od IDC, danych przyrasta 33 razy szybciej niż zdolność i gotowość firm do ich przetworzenia i analizy.
Myślę, że za wzrostem zapotrzebowania na bardzo wysoką wydajność computingu podążą także usługi chmurowe, zdolne do jej dostarczania drogą sieciową, gdyż nikt w dobie dzisiejszych czasów nie będzie już raczej myślał o tworzeniu własnej, zwłaszcza tak kosztowej i tak wydajnej, infrastruktury –dodaje Marcin Zmaczyński z Aruba Cloud.
Do czego zdolny jest exascale computing? Obecnie, najmocniejsze superkomputery są w stanie wykonywać ponad 1015 (milion miliardów) operacji na sekundę. Oznacza to zatem wydajność w petaskali. Kilka najbardziej wydajnych systemów jest dzisiaj w stanie przekroczyć 1017 (minimum sto milionów miliardów) operacji w ciągu sekundy. Początek nowej dekady będzie jednak przełomowy pod kątem przekroczenia nieosiągalnej dotąd wydajności – mianowicie eksaskali. Ta generacja superkomputerów będzie w stanie wykonywać 1018 (miliard miliardów) operacji na sekundę. W pewnym przybliżeniu, jest to moc obliczeniowa równowarta wszystkim smartfonom użytkowanym przez całą populację krajów członkowskich Unii Europejskiej.
Potrzeba matką wynalazków
Potrzebę sięgania po znaczenie wydajniejsze narzędzia analizy i operowania na danych stymuluje przede wszystkim ich galopujący przyrost i dynamicznie rozrastające się ekosystemy informatyczne – w tym Internetu Rzeczy - w firmach, administracji publicznej, zakładach produkcyjnych czy placówkach medycznych. Tylko w 2020r liczba globalnie wygenerowanych danych sięgnęła, zgodnie z analizą IDC, 64,2 ZB (zettabajta).
W 2024 roku wartość ta ma być już niemal trzykrotnie większa. Coraz bardziej rozbudowane systemy czujników i sensorów w produkcji, rozrastające się firmowe bazy danych od działów R&D po marketing, potrzeba szybszego opracowywania aplikacji przez stale powiększające się grono software house’ów to tylko wybrane czynniki napędzające popyt na ogromną moc obliczeniową. Rynek musi więc na niego odpowiadać, co wyrażać się będzie także w przyroście zdolności do dostarczania computingu o wysokiej wydajności przez centra danych – uzupełnia Marcin Zmaczyński z Aruba Cloud.
UE napędza analitykę
Działania w zakresie podnoszenia mocy obliczeniowej na nowy poziom są także jednym z kluczowych założeń Europejskiego Programu Cyfrowego (Digital Europe Programme). Ogólna wartość lokowanego w nim finansowania, gdzie obszarem supercomputingu wyróżnić możemy także sztuczną inteligencję czy cyberbezpieczeństwo, wynosi 7,6 miliarda euro.
Źródło: Aruba Cloud
Najnowsze wiadomości
Kwantowy przełom w cyberochronie - nadchodząca dekada przepisze zasady szyfrowania na nowo
Przez długi czas cyfrowe bezpieczeństwo opierało się na prostym założeniu: współczesne komputery potrzebowałyby ogromnych zasobów i wielu lat, aby złamać silne algorytmy szyfrowania. Rozwój technologii kwantowej zaczyna jednak tę regułę podważać, a eksperci przewidują, że w perspektywie 5–10 lat może nadejść „dzień zero”. Jest to moment, w którym zaawansowana maszyna kwantowa będzie w stanie przełamać większość aktualnie stosowanych zabezpieczeń kryptograficznych w czasie liczonym nie w latach, lecz w godzinach.
PSI prezentuje nową identyfikację wizualną
W ramach realizowanej strategii transformacji PSI Software SE zaprezentowała nową identyfikację wizualną. Odświeżony wizerunek w spójny sposób oddaje technologiczne zaawansowanie firmy, jej głęboką wiedzę branżową oraz silne ukierunkowanie na potrzeby klientów. Zmiany te wzmacniają pozycję PSI jako innowacyjnego lidera technologicznego w obszarze skalowalnych rozwiązań informatycznych opartych na sztucznej inteligencji i chmurze, rozwijanych z myślą o energetyce i przemyśle.
W ramach realizowanej strategii transformacji PSI Software SE zaprezentowała nową identyfikację wizualną. Odświeżony wizerunek w spójny sposób oddaje technologiczne zaawansowanie firmy, jej głęboką wiedzę branżową oraz silne ukierunkowanie na potrzeby klientów. Zmiany te wzmacniają pozycję PSI jako innowacyjnego lidera technologicznego w obszarze skalowalnych rozwiązań informatycznych opartych na sztucznej inteligencji i chmurze, rozwijanych z myślą o energetyce i przemyśle.
PROMAG S.A. rozpoczyna wdrożenie systemu ERP IFS Cloud we współpracy z L-Systems
PROMAG S.A., lider w obszarze intralogistyki, rozpoczął wdrożenie systemu ERP IFS Cloud, który ma wesprzeć dalszy rozwój firmy oraz integrację kluczowych procesów biznesowych. Projekt realizowany jest we współpracy z firmą L-Systems i obejmuje m.in. obszary finansów, produkcji, logistyki, projektów oraz serwisu, odpowiadając na rosnącą skalę i złożoność realizowanych przedsięwzięć.
F5 rozszerza portfolio bezpieczeństwa o narzędzia do ochrony systemów AI w środowiskach enterprise
F5 ogłosiło wprowadzenie dwóch nowych rozwiązań - F5 AI Guardrails oraz F5 AI Red Team - które mają odpowiedzieć na jedno z kluczowych wyzwań współczesnych organizacji: bezpieczne wdrażanie i eksploatację systemów sztucznej inteligencji na dużą skalę. Nowa oferta łączy ochronę działania modeli AI w czasie rzeczywistym z ofensy
Snowflake + OpenAI: AI bliżej biznesu
Snowflake przyspiesza wykorzystanie danych i sztucznej inteligencji w firmach, przenosząc AI z fazy eksperymentów do codziennych procesów biznesowych. Nowe rozwiązania w ramach AI Data Cloud integrują modele AI bezpośrednio z danymi, narzędziami deweloperskimi i warstwą semantyczną. Partnerstwo z OpenAI, agent Cortex Code, Semantic View Autopilot oraz rozwój Snowflake Postgres pokazują, jak budować skalowalne, bezpieczne i mierzalne wdrożenia AI w skali całej organizacji.
Najnowsze artykuły
Magazyn bez błędów? Sprawdź, jak system WMS zmienia codzienność logistyki
Współczesna logistyka wymaga nie tylko szybkości działania, lecz także maksymalnej precyzji – to właśnie te czynniki coraz częściej decydują o przewadze konkurencyjnej firm. Nawet drobne pomyłki w ewidencji stanów magazynowych, błędy przy przyjmowaniu dostaw czy nieprawidłowe rozmieszczenie towarów, mogą skutkować poważnymi stratami finansowymi i opóźnieniami w realizacji zamówień. W jaki sposób nowoczesne rozwiązania do zarządzania pomagają unikać takich sytuacji? Czym właściwie różni się tradycyjny system magazynowy od zaawansowanych rozwiązań klasy WMS (ang. Warehouse Management System)? I w jaki sposób inteligentne zarządzanie procesami magazynowymi realnie usprawnia codzienną pracę setek firm?
Migracja z SAP ECC na S4 HANA: Ryzyka, korzyści i alternatywne rozwiązania
W ostatnich latach wiele firm, które korzystają z systemu SAP ECC (Enterprise Central Component), stoi przed decyzją o przejściu na nowszą wersję — SAP S4 HANA. W obliczu końca wsparcia dla ECC w 2030 roku, temat ten staje się coraz bardziej aktualny. Przemiany technologiczne oraz rosnące oczekiwania związane z integracją nowych funkcji, jak sztuczna inteligencja (AI), skłaniają do refleksji nad tym, czy warto podjąć tak dużą zmianę w architekturze systemu. Przyjrzyjmy się głównym powodom, dla których firmy rozważają migrację do S4 HANA, ale także argumentom, które mogą przemawiać za pozostaniem przy dotychczasowym systemie ECC, przynajmniej na krótki okres.
Jak maksymalizować zyski z MTO i MTS dzięki BPSC ERP?
Zysk przedsiębiorstwa produkcyjnego zależy nie tylko od wydajności maszyn, ale przede wszystkim od precyzyjnego planowania, realnych danych i umiejętnego zarządzania procesami. Dlatego firmy, które chcą skutecznie działać zarówno w modelu Make to Stock (MTS), jak i Make to Order (MTO), coraz częściej sięgają po rozwiązania klasy ERP, takie jak BPSC ERP.
Ponad połowa cyberataków zaczyna się od błędu człowieka
Ponad 2/3 firm w Polsce odnotowała w zeszłym roku co najmniej 1 incydent naruszenia bezpieczeństwa . Według danych Unit 42, zespołu analitycznego Palo Alto Networks, aż 60% ataków rozpoczyna się od działań wymierzonych w pracowników – najczęściej pod postacią phishingu i innych form inżynierii społecznej . To pokazuje, że w systemie ochrony organizacji pracownicy są kluczowym ogniwem – i że firmy muszą nie tylko edukować, ale też konsekwentnie egzekwować zasady cyberhigieny. Warto o tym pamiętać szczególnie teraz, w październiku, gdy obchodzimy Europejski Miesiąc Cyberbezpieczeństwa.
MES - holistyczne zarządzanie produkcją
Nowoczesna produkcja wymaga precyzji, szybkości i pełnej kontroli nad przebiegiem procesów. Rosnąca złożoność zleceń oraz presja kosztowa sprawiają, że ręczne raportowanie i intuicyjne zarządzanie coraz częściej okazują się niewystarczające. Firmy szukają rozwiązań, które umożliwiają im widzenie produkcji „na żywo”, a nie z opóźnieniem kilku godzin czy dni. W tym kontekście kluczową rolę odgrywają narzędzia, które porządkują informacje i pozwalają reagować natychmiast, zamiast po fakcie.
Przeczytaj Również
Infrastruktura w punkcie zwrotnym - 5 prognoz kształtujących AI, odporność i suwerenność danych w 2026 roku
W 2026 roku zyskają firmy, które traktują infrastrukturę nie jako obszar generujący koszty, lecz ja… / Czytaj więcej
Tylko 7% firm w Europie wykorzystuje w pełni potencjał AI
72% firm w regionie EMEA uznaje rozwój narzędzi bazujących na sztucznej inteligencji za priorytet s… / Czytaj więcej
Chmura publiczna w Unii Europejskiej – między innowacją a odpowiedzialnością za dane
Transformacja cyfrowa w Europie coraz mocniej opiera się na chmurze publicznej, która stała się fun… / Czytaj więcej
Jak Cisco pomaga Europie spłacić dług technologiczny w krytycznej infrastrukturze sieciowej
Cyfryzacja, rozwój sztucznej inteligencji i nadchodzące komputery kwantowe wymagają od Europy stabi… / Czytaj więcej
MŚP inwestują w AI, kompetencje pracowników nadal wyzwaniem
Europejskie małe i średnie firmy coraz śmielej inwestują w sztuczną inteligencję, ale to kompetencj… / Czytaj więcej
AP EU AI Cloud: nowy standard suwerennej chmury i AI dla europejskich organizacji
SAP EU AI Cloud to zapowiedziana 27 listopada 2025 r. platforma, która łączy dotychczasowe inicjaty… / Czytaj więcej

