Red Hat ogłosił dziś wprowadzenie nowych uprawnień i możliwości swojego narzędzia Red Hat OpenShift umożliwiających szybszy ruch inteligentnych aplikacji w chmurze hybrydowej. Wprowadzone usprawnienia, w tym certyfikacja Red Hat OpenShift do pracy z NVIDIA AI Enterprise 2.0 oraz ogólna dostępność Red Hat OpenShift 4.10 oferują organizacjom bezpieczniejsze i stabilniejsze rozwiązanie umożliwiające wprowadzanie, zarządzanie i skalowanie zadań w zakresie sztucznej inteligencji (AI).

 REKLAMA 
 Wdrażasz KSeF w firmie 
 
Według prognoz organizacji Gartner® przychody wygenerowane przez oprogramowanie dedykowane sztucznej inteligencji w 2022 r. mogą wynieść łącznie 62,5 mld USD, co stanowi wzrost o 21,3% w stosunku do 2021 r. Integrowanie przez firmy możliwości AI i systemów uczenia maszynowego (ML) z aplikacjami chmurowymi, aby móc zaoferować klientom dokładniejsze analizy i większą wartość wymaga szczególnie sprawnej, elastycznej i skalowalnej platformy. Musi ona umożliwiać szybsze budowanie i stosowanie modeli ML oraz inteligentnych aplikacji w procesie produkcyjnym. Rozwiązanie Red Hat OpenShift zostało opracowane, aby umożliwić takie działania, a nowo wprowadzone funkcjonalności ułatwią organizacjom dodawanie zadań AI do wiodącej wśród narzędzi dla firm platformy Kubernetes.

Łatwiej skorzystać z innowacji oferowanych przez AI

Sztuczna inteligencja rewolucjonizuje sposób prowadzenia działalności przez przedsiębiorstwa, jednak wdrożenie infrastruktury AI może być skomplikowane i wymagać dużych nakładów czasu i zasobów. Aby możliwe było przyśpieszenie tego procesu, rozwiązanie Red Hat OpenShift zyskało certyfikat i wsparcie programów NVIDIA AI Enterprise 2.0 stanowiących kompleksowy pakiet narzędzi chmurowych dedykowanych do zadań AI i analizy danych, który działa na powszechnie stosowanym narzędziu NVIDIA-Certified Systems. Ta zintegrowana platforma oferuje flagowe oprogramowanie AI NVIDIA, pakiet NVIDIA AI Enterprise, zoptymalizowany do funkcjonalności Red Hat OpenShift. Korzystając z NVIDIA AI Enterprise przy zastosowaniu Red Hat OpenShift, analitycy danych i deweloperzy mogą szybciej trenować swoje modele, integrować je z aplikacjami i stosować na dużą skalę.

Obecnie klienci mają możliwość korzystania z Red Hat OpenShift z NVIDIA-Certified Systems przy zastosowaniu oprogramowania NVIDIA AI Enterprise oraz obsługiwanych poprzednio systemów NVIDIA DGX A100 , stanowiących uniwersalne wysokowydajne rozwiązanie do obsługi zadań AI. Dzięki temu organizacje są w stanie skonsolidować i przyspieszyć cały cykl operacji ML obejmujący inżynierię i analizę danych, trenowanie i rozwój oprogramowania oraz działania wnioskowania, korzystając z ujednoliconej i łatwiejszej do wprowadzenia infrastruktury AI. Ponadto zintegrowane możliwości DevOps i GitOps, jakie oferuje Red Hat OpenShift pozwalają MLOps przyśpieszyć ciągłe wprowadzanie aplikacji opartych na AI.

Stanowi to uzupełnienie planowanego wsparcia NVIDIA GPUs dostępnego z Red Hat OpenShift Data Science, o którym informowano wcześniej.

Kompleksowa platforma do obsługi zadań AI/ML

Red Hat OpenShift 4.10 stanowi kontynuację ekspansji platformy do obsługi szerokiego spektrum działań chmurowych w otwartej chmurze hybrydowej, umożliwiając organizacjom realizację działań AI/ML w kolejnych środowiskach. Najnowsza wersja OpenShift oferuje wsparcie dla dodatkowych chmur publicznych i architektury sprzętowej, zapewniając organizacjom elastyczność w wyborze lokalizacji dla używanych aplikacji poprzez uproszczenie i stabilność całości działań deweloperskich.

NVIDIA Enterprise AI 2.0 dla Red Hat OpenShift oraz Red Hat OpenShift 4.10 są obecnie ogólnodostępne.

W czasie, gdy organizacje sięgają po inteligentne narzędzia oparte na technologiach AI/ML, by zyskać wiedzę niezbędną do podejmowania strategicznych decyzji, które mogą zapewnić im przewagę konkurencyjną, my dostrzegamy potencjał kontenerów i platform Kubernetes jako kluczowych narzędzi do przyśpieszenia tego nowego cyklu życia aplikacji. Red Hat OpenShift nie tylko zapewnia elastyczność, mobilność i skalowalność w trenowaniu, testowaniu i stosowaniu modeli ML, ale także zintegrowane możliwości DevOps pozwalające na lepszą współpracę pomiędzy analitykami danych a deweloperami. Poprzez naszą współpracę z NVIDIA pomagamy klientom przyspieszyć działanie zróżnicowanego wachlarza aplikacji AI, jednocześnie ułatwiając ich wdrożenie - Joe Fernandes, wiceprezes i dyrektor generalny, Platforms Business Group, Red Hat


Źródło: Red Hat

PRZECZYTAJ RÓWNIEŻ:


Back to top