Kto kontroluje otwarte modele AI?
Katgoria: IT Solutions / Utworzono: 07 marzec 2025
Rozwój sztucznej inteligencji zmienia sposób, w jaki firmy i społeczeństwa korzystają z innowacyjnych rozwiązań, ale rodzi też pytania o to, kto i na jakich zasadach nadzoruje jej postęp. O przyszłości tej technologii zadecydują nie tylko algorytmy, ale także dążenie do demokratyzacji dostępu i tworzenia bardziej inkluzywnych, otwartych innowacji. Tempo zmian jest błyskawiczne, ale jedno pozostaje niezmienne – otwarte podejście do AI to klucz do jej odpowiedzialnego i zrównoważonego rozwoju.
Inkluzywność, dostępność i współpraca społeczności programistów od dekad umożliwiają tworzenie otwartego oraz bezpiecznego oprogramowania, które stanowi motor napędowy dla innowacyjności i fundament globalnej infrastruktury IT. W Red Hat uważamy, że wykorzystanie tych samych zasad w rozwoju AI może uczynić ją bardziej odpowiedzialną i mniej podatną na uprzedzenia (z ang. bias). Choć sztucznej inteligencji nie należy traktować tak samo jak oprogramowanie open source, istnieje wiele analogii między strukturą dużych modeli językowych a otwartym oprogramowaniem. Mimo że są to osobne dziedziny, wspólnym mianownikiem jest z pewnością otwarte podejście i możliwości współtworzenia przez społeczność open source.
Dostrajanie sztucznej inteligencji
W przeciwieństwie do tradycyjnych aplikacji IT, które budowane są na podstawie kodu źródłowego, modele AI bazują na tzw. wagach, czyli zestawach liczb decydujących o tym, jak system analizuje dane i generuje odpowiedzi. Wagi powstają w wyniku długiego procesu trenowania modelu na ogromnych zbiorach informacji. Niekiedy dane treningowe przyrównywane są do kodu źródłowego modelu AI, jednak stanowi to pewnego rodzaju uproszczenie.
W świecie open source kod źródłowy jest podstawowym środkiem do poznania oprogramowania i wprowadzania w nim zmian. W przypadku sztucznej inteligencji same dane treningowe nie wystarczą, aby zrozumieć w jaki sposób działa konkretny algorytm. Proces ich przetwarzania i trenowania jest tak złożony, że pojedyncza próbka danych ma tylko pośredni wpływ na efekt końcowy, co utrudnia pełną kontrolę nad modelem. Większość ulepszeń modeli AI nie wymaga zresztą dostępu do oryginalnych danych treningowych. Zamiast tego zmiany dokonywane są na podstawie modyfikacji wag modelu lub w procesie „dostrajania” (fine-tuning), który pozwala na precyzyjne dopasowanie AI do konkretnych zastosowań.
Warto zauważyć, że etap dostosowywania modeli AI do wymagań biznesowych może być kosztowny, ale nie musi. Zastosowanie technologii vLLM pozwala optymalizować wykorzystanie zasobów obliczeniowych, efektywniej zarządzać pamięcią i przetwarzać większą liczbę zapytań jednocześnie. Dzięki temu proces dostrajania modeli jest szybszy i tańszy, a firmy mogą skuteczniej wdrażać i skalować AI, nawet przy ograniczonych zasobach infrastrukturalnych.
AI otwarte, czyli jakie?
Aby można było mówić o otwartej sztucznej inteligencji, modele AI muszą spełniać dwa podstawowe warunki. Po pierwsze, ich wagi powinny być dostępne w ramach licencji open source, zapewniającej te same prawa i zasady działania, jakie obowiązują w przypadku klasycznego oprogramowania open source. Po drugie, zaimplementowane w kodzie mechanizmy ich działania muszą bazować na otwartych technologiach. Istotnym elementem jest również dążenie do zwiększania przejrzystości procesu trenowania i dostrajania sztucznej inteligencji, a także zacieśnianie współpracy społeczności IT z instytucjami regulującymi prawo oraz przedsiębiorcami.
Jednym z wyzwań dotyczących rozwijania systemów AI jest to, że w ich ulepszaniu często bierze udział tylko wąska grupa specjalistów zajmujących się danymi. Tymczasem eksperci z różnych branż – od medycyny po prawo – mogą wnosić cenną wiedzę do procesów trenowania modeli. Dlatego tak ważne jest, aby sztuczna inteligencja była dostępna i otwarta dla jak najszerszego grona społeczności, instytucji i firm, a nie tylko wąskiego grona podmiotów technologicznych.
Przykładem takiego podejścia jest stworzony przez Red Hat i IBM projekt InstructLab. To narzędzie pozwalające osobom spoza świata data science na aktywne współtworzenie modeli AI poprzez dostarczanie swojej specjalistycznej wiedzy. Dzięki temu przedstawiciele różnych branż i biznesu mogą wpływać na rozwój sztucznej inteligencji, sprawiając, że lepiej odpowiada ona na konkretne wyzwania gospodarcze i naukowe. Ułatwia to transparentny i inkluzywny rozwój AI, a także sprzyja tworzeniu mniejszych, bardziej wyspecjalizowanych modeli do konkretnych zastosowań biznesowych.
Infrastruktura i optymalizacja
Rozwój sztucznej inteligencji open source nie kończy się na samych modelach – równie istotna jest infrastruktura, na której działa AI. Dla tworzenia sztucznej inteligencji w duchu open source kluczowe jest dostarczanie elastycznych narzędzi umożliwiających budowanie, wdrażanie i zarządzanie modelami w różnych środowiskach. Otwarte technologie, takie jak Kubernetes czy KubeFlow, odgrywają tu istotną rolę, zapewniając skalowalność oraz integrację różnych systemów IT. Ważne jest także wykorzystanie chmury hybrydowej, która pozwala na elastyczność w doborze odpowiednich zasobów do konkretnych zastosowań AI. Możliwość optymalizacji wydajności i kosztów sprawia, że firmy mogą lepiej dostosowywać modele do swoich potrzeb, niezależnie od miejsca ich wdrożenia.
Autor: Wojciech Furmankiewicz, dyrektor Red Hat ds. technologii i rozwiązań w regionie Europy Środkowo-Wschodniej
Źródło: Red Hat
Dostrajanie sztucznej inteligencji
W przeciwieństwie do tradycyjnych aplikacji IT, które budowane są na podstawie kodu źródłowego, modele AI bazują na tzw. wagach, czyli zestawach liczb decydujących o tym, jak system analizuje dane i generuje odpowiedzi. Wagi powstają w wyniku długiego procesu trenowania modelu na ogromnych zbiorach informacji. Niekiedy dane treningowe przyrównywane są do kodu źródłowego modelu AI, jednak stanowi to pewnego rodzaju uproszczenie.
W świecie open source kod źródłowy jest podstawowym środkiem do poznania oprogramowania i wprowadzania w nim zmian. W przypadku sztucznej inteligencji same dane treningowe nie wystarczą, aby zrozumieć w jaki sposób działa konkretny algorytm. Proces ich przetwarzania i trenowania jest tak złożony, że pojedyncza próbka danych ma tylko pośredni wpływ na efekt końcowy, co utrudnia pełną kontrolę nad modelem. Większość ulepszeń modeli AI nie wymaga zresztą dostępu do oryginalnych danych treningowych. Zamiast tego zmiany dokonywane są na podstawie modyfikacji wag modelu lub w procesie „dostrajania” (fine-tuning), który pozwala na precyzyjne dopasowanie AI do konkretnych zastosowań.
Warto zauważyć, że etap dostosowywania modeli AI do wymagań biznesowych może być kosztowny, ale nie musi. Zastosowanie technologii vLLM pozwala optymalizować wykorzystanie zasobów obliczeniowych, efektywniej zarządzać pamięcią i przetwarzać większą liczbę zapytań jednocześnie. Dzięki temu proces dostrajania modeli jest szybszy i tańszy, a firmy mogą skuteczniej wdrażać i skalować AI, nawet przy ograniczonych zasobach infrastrukturalnych.
AI otwarte, czyli jakie?
Aby można było mówić o otwartej sztucznej inteligencji, modele AI muszą spełniać dwa podstawowe warunki. Po pierwsze, ich wagi powinny być dostępne w ramach licencji open source, zapewniającej te same prawa i zasady działania, jakie obowiązują w przypadku klasycznego oprogramowania open source. Po drugie, zaimplementowane w kodzie mechanizmy ich działania muszą bazować na otwartych technologiach. Istotnym elementem jest również dążenie do zwiększania przejrzystości procesu trenowania i dostrajania sztucznej inteligencji, a także zacieśnianie współpracy społeczności IT z instytucjami regulującymi prawo oraz przedsiębiorcami.
Jednym z wyzwań dotyczących rozwijania systemów AI jest to, że w ich ulepszaniu często bierze udział tylko wąska grupa specjalistów zajmujących się danymi. Tymczasem eksperci z różnych branż – od medycyny po prawo – mogą wnosić cenną wiedzę do procesów trenowania modeli. Dlatego tak ważne jest, aby sztuczna inteligencja była dostępna i otwarta dla jak najszerszego grona społeczności, instytucji i firm, a nie tylko wąskiego grona podmiotów technologicznych.
Przykładem takiego podejścia jest stworzony przez Red Hat i IBM projekt InstructLab. To narzędzie pozwalające osobom spoza świata data science na aktywne współtworzenie modeli AI poprzez dostarczanie swojej specjalistycznej wiedzy. Dzięki temu przedstawiciele różnych branż i biznesu mogą wpływać na rozwój sztucznej inteligencji, sprawiając, że lepiej odpowiada ona na konkretne wyzwania gospodarcze i naukowe. Ułatwia to transparentny i inkluzywny rozwój AI, a także sprzyja tworzeniu mniejszych, bardziej wyspecjalizowanych modeli do konkretnych zastosowań biznesowych.
Infrastruktura i optymalizacja
Rozwój sztucznej inteligencji open source nie kończy się na samych modelach – równie istotna jest infrastruktura, na której działa AI. Dla tworzenia sztucznej inteligencji w duchu open source kluczowe jest dostarczanie elastycznych narzędzi umożliwiających budowanie, wdrażanie i zarządzanie modelami w różnych środowiskach. Otwarte technologie, takie jak Kubernetes czy KubeFlow, odgrywają tu istotną rolę, zapewniając skalowalność oraz integrację różnych systemów IT. Ważne jest także wykorzystanie chmury hybrydowej, która pozwala na elastyczność w doborze odpowiednich zasobów do konkretnych zastosowań AI. Możliwość optymalizacji wydajności i kosztów sprawia, że firmy mogą lepiej dostosowywać modele do swoich potrzeb, niezależnie od miejsca ich wdrożenia.
Autor: Wojciech Furmankiewicz, dyrektor Red Hat ds. technologii i rozwiązań w regionie Europy Środkowo-Wschodniej
Źródło: Red Hat
Najnowsze wiadomości
Kwantowy przełom w cyberochronie - nadchodząca dekada przepisze zasady szyfrowania na nowo
Przez długi czas cyfrowe bezpieczeństwo opierało się na prostym założeniu: współczesne komputery potrzebowałyby ogromnych zasobów i wielu lat, aby złamać silne algorytmy szyfrowania. Rozwój technologii kwantowej zaczyna jednak tę regułę podważać, a eksperci przewidują, że w perspektywie 5–10 lat może nadejść „dzień zero”. Jest to moment, w którym zaawansowana maszyna kwantowa będzie w stanie przełamać większość aktualnie stosowanych zabezpieczeń kryptograficznych w czasie liczonym nie w latach, lecz w godzinach.
PSI prezentuje nową identyfikację wizualną
W ramach realizowanej strategii transformacji PSI Software SE zaprezentowała nową identyfikację wizualną. Odświeżony wizerunek w spójny sposób oddaje technologiczne zaawansowanie firmy, jej głęboką wiedzę branżową oraz silne ukierunkowanie na potrzeby klientów. Zmiany te wzmacniają pozycję PSI jako innowacyjnego lidera technologicznego w obszarze skalowalnych rozwiązań informatycznych opartych na sztucznej inteligencji i chmurze, rozwijanych z myślą o energetyce i przemyśle.
W ramach realizowanej strategii transformacji PSI Software SE zaprezentowała nową identyfikację wizualną. Odświeżony wizerunek w spójny sposób oddaje technologiczne zaawansowanie firmy, jej głęboką wiedzę branżową oraz silne ukierunkowanie na potrzeby klientów. Zmiany te wzmacniają pozycję PSI jako innowacyjnego lidera technologicznego w obszarze skalowalnych rozwiązań informatycznych opartych na sztucznej inteligencji i chmurze, rozwijanych z myślą o energetyce i przemyśle.
PROMAG S.A. rozpoczyna wdrożenie systemu ERP IFS Cloud we współpracy z L-Systems
PROMAG S.A., lider w obszarze intralogistyki, rozpoczął wdrożenie systemu ERP IFS Cloud, który ma wesprzeć dalszy rozwój firmy oraz integrację kluczowych procesów biznesowych. Projekt realizowany jest we współpracy z firmą L-Systems i obejmuje m.in. obszary finansów, produkcji, logistyki, projektów oraz serwisu, odpowiadając na rosnącą skalę i złożoność realizowanych przedsięwzięć.
F5 rozszerza portfolio bezpieczeństwa o narzędzia do ochrony systemów AI w środowiskach enterprise
F5 ogłosiło wprowadzenie dwóch nowych rozwiązań - F5 AI Guardrails oraz F5 AI Red Team - które mają odpowiedzieć na jedno z kluczowych wyzwań współczesnych organizacji: bezpieczne wdrażanie i eksploatację systemów sztucznej inteligencji na dużą skalę. Nowa oferta łączy ochronę działania modeli AI w czasie rzeczywistym z ofensy
Snowflake + OpenAI: AI bliżej biznesu
Snowflake przyspiesza wykorzystanie danych i sztucznej inteligencji w firmach, przenosząc AI z fazy eksperymentów do codziennych procesów biznesowych. Nowe rozwiązania w ramach AI Data Cloud integrują modele AI bezpośrednio z danymi, narzędziami deweloperskimi i warstwą semantyczną. Partnerstwo z OpenAI, agent Cortex Code, Semantic View Autopilot oraz rozwój Snowflake Postgres pokazują, jak budować skalowalne, bezpieczne i mierzalne wdrożenia AI w skali całej organizacji.
Najnowsze artykuły
Magazyn bez błędów? Sprawdź, jak system WMS zmienia codzienność logistyki
Współczesna logistyka wymaga nie tylko szybkości działania, lecz także maksymalnej precyzji – to właśnie te czynniki coraz częściej decydują o przewadze konkurencyjnej firm. Nawet drobne pomyłki w ewidencji stanów magazynowych, błędy przy przyjmowaniu dostaw czy nieprawidłowe rozmieszczenie towarów, mogą skutkować poważnymi stratami finansowymi i opóźnieniami w realizacji zamówień. W jaki sposób nowoczesne rozwiązania do zarządzania pomagają unikać takich sytuacji? Czym właściwie różni się tradycyjny system magazynowy od zaawansowanych rozwiązań klasy WMS (ang. Warehouse Management System)? I w jaki sposób inteligentne zarządzanie procesami magazynowymi realnie usprawnia codzienną pracę setek firm?
Migracja z SAP ECC na S4 HANA: Ryzyka, korzyści i alternatywne rozwiązania
W ostatnich latach wiele firm, które korzystają z systemu SAP ECC (Enterprise Central Component), stoi przed decyzją o przejściu na nowszą wersję — SAP S4 HANA. W obliczu końca wsparcia dla ECC w 2030 roku, temat ten staje się coraz bardziej aktualny. Przemiany technologiczne oraz rosnące oczekiwania związane z integracją nowych funkcji, jak sztuczna inteligencja (AI), skłaniają do refleksji nad tym, czy warto podjąć tak dużą zmianę w architekturze systemu. Przyjrzyjmy się głównym powodom, dla których firmy rozważają migrację do S4 HANA, ale także argumentom, które mogą przemawiać za pozostaniem przy dotychczasowym systemie ECC, przynajmniej na krótki okres.
Jak maksymalizować zyski z MTO i MTS dzięki BPSC ERP?
Zysk przedsiębiorstwa produkcyjnego zależy nie tylko od wydajności maszyn, ale przede wszystkim od precyzyjnego planowania, realnych danych i umiejętnego zarządzania procesami. Dlatego firmy, które chcą skutecznie działać zarówno w modelu Make to Stock (MTS), jak i Make to Order (MTO), coraz częściej sięgają po rozwiązania klasy ERP, takie jak BPSC ERP.
Ponad połowa cyberataków zaczyna się od błędu człowieka
Ponad 2/3 firm w Polsce odnotowała w zeszłym roku co najmniej 1 incydent naruszenia bezpieczeństwa . Według danych Unit 42, zespołu analitycznego Palo Alto Networks, aż 60% ataków rozpoczyna się od działań wymierzonych w pracowników – najczęściej pod postacią phishingu i innych form inżynierii społecznej . To pokazuje, że w systemie ochrony organizacji pracownicy są kluczowym ogniwem – i że firmy muszą nie tylko edukować, ale też konsekwentnie egzekwować zasady cyberhigieny. Warto o tym pamiętać szczególnie teraz, w październiku, gdy obchodzimy Europejski Miesiąc Cyberbezpieczeństwa.
MES - holistyczne zarządzanie produkcją
Nowoczesna produkcja wymaga precyzji, szybkości i pełnej kontroli nad przebiegiem procesów. Rosnąca złożoność zleceń oraz presja kosztowa sprawiają, że ręczne raportowanie i intuicyjne zarządzanie coraz częściej okazują się niewystarczające. Firmy szukają rozwiązań, które umożliwiają im widzenie produkcji „na żywo”, a nie z opóźnieniem kilku godzin czy dni. W tym kontekście kluczową rolę odgrywają narzędzia, które porządkują informacje i pozwalają reagować natychmiast, zamiast po fakcie.
Przeczytaj Również
Infrastruktura w punkcie zwrotnym - 5 prognoz kształtujących AI, odporność i suwerenność danych w 2026 roku
W 2026 roku zyskają firmy, które traktują infrastrukturę nie jako obszar generujący koszty, lecz ja… / Czytaj więcej
Tylko 7% firm w Europie wykorzystuje w pełni potencjał AI
72% firm w regionie EMEA uznaje rozwój narzędzi bazujących na sztucznej inteligencji za priorytet s… / Czytaj więcej
Chmura publiczna w Unii Europejskiej – między innowacją a odpowiedzialnością za dane
Transformacja cyfrowa w Europie coraz mocniej opiera się na chmurze publicznej, która stała się fun… / Czytaj więcej
Jak Cisco pomaga Europie spłacić dług technologiczny w krytycznej infrastrukturze sieciowej
Cyfryzacja, rozwój sztucznej inteligencji i nadchodzące komputery kwantowe wymagają od Europy stabi… / Czytaj więcej
MŚP inwestują w AI, kompetencje pracowników nadal wyzwaniem
Europejskie małe i średnie firmy coraz śmielej inwestują w sztuczną inteligencję, ale to kompetencj… / Czytaj więcej
AP EU AI Cloud: nowy standard suwerennej chmury i AI dla europejskich organizacji
SAP EU AI Cloud to zapowiedziana 27 listopada 2025 r. platforma, która łączy dotychczasowe inicjaty… / Czytaj więcej

