Korzystanie z DeepSeek niebezpieczne dla firmowych danych
Katgoria: BEZPIECZEŃSTWO IT / Utworzono: 26 luty 2025
DeepSeek miał podbić świat i zrewolucjonizować podejście do trenowania modeli językowych. Twórcy deklarowali, że jest tani i może uczyć się szybciej niż najlepsze dostępne na rynku rozwiązania. Specjaliści z Palo Alto Networks odkryli jednak, że za tą fasadą kryje się oprogramowanie zawierające krytyczne luki bezpieczeństwa. Mogą one prowadzić nie tylko do wycieków danych użytkowników, ale również do wzrostu cyberprzestępczości.
Technologiczny świat zachwiał się w posadach, kiedy chińska spółka zadeklarowała, że model językowy można wytrenować nie tylko szybko, ale również tanio. W ten sposób DeepSeek przyczynił się do największej w historii przeceny na amerykańskiej giełdzie – notowania spółki Nvidia w ciągu jednej tylko sesji spadły aż o 470 mld dolarów .
Jednak po fali euforii okraszonej paniką inwestorów przyszedł czas na dokładniejsze analizy. Jednostka badawcza Unit 42 Palo Alto Networks wykryła, że chiński model posiada poważne luki w zabezpieczeniach i może być niebezpieczny dla korzystających z niego firm .
Na pierwszy rzut oka DeepSeek wydaje się być tak samo wydajny jak najnowocześniejsze narzędzia oferowane przez OpenAI i Google. Co więcej, został wydany na licencji open source, więc każdy programista może go modyfikować bez konieczności uzyskiwania dostępu do kosztownych procesorów graficznych. To bardzo duże przewagi nad konkurencją, dlatego DeepSeek został okrzyknięty „momentem Sputnika” dla sztucznej inteligencji i wywołał panikę wśród inwestorów.
Jednak badania specjalistów z Palo Alto Networks ujawniły niepokojącą prawdę – chiński model sztucznej inteligencji ma poważne luki w zabezpieczeniach i jest szczególnie podatny na tzw. jailbreak . Cyberprzestępcy coraz częściej wykorzystują tę metodę, by oszukać generatywną AI i zmusić ją do tworzenia nielegalnych treści. Dla porównania dobrze zabezpieczony czatbot natychmiast odrzuci próbę uzyskania informacji o budowie ładunku wybuchowego, co jest kluczowym mechanizmem przeciwdziałania zagrożeniom terrorystycznym. Niestety, model DeepSeek może być bezbronny wobec takich prób. Testy wykazały, że potrafi on dostarczać szczegółowych instrukcji dotyczących tworzenia złośliwego oprogramowania do kradzieży haseł i danych, a nawet wyjaśniać, jak skonstruować urządzenia zapalające. Te luki to nie tylko techniczne niedociągnięcia – to furtka dla potencjalnych tragedii.
W najbliższych latach każda organizacja wypracuje własne zasady dotyczące nowych modeli sztucznej inteligencji. Już teraz niektóre z nich całkowicie ich zakazują, inne zezwalają na ograniczone, eksperymentalne i ściśle kontrolowane użycie. Jeszcze inne będą spieszyć się z wdrażaniem AI w jak najszerszym zakresie, chcąc osiągnąć większą wydajność i optymalizację kosztów.
W związku z dużym zapotrzebowaniem na niedrogie rozwiązania DeepSeek nie jest ostatnim modelem, który zaskoczy świat. Minie trochę czasu, zanim technologie AI zostaną w pełni zrozumiane i wyłonią się wyraźni liderzy. Zanim to nastąpi, należy bardzo skrupulatnie podchodzić do wszelkich nowości na tym rynku. Tym bardziej że pokusa testowania nowych modeli jest ogromna.
Organizacje mogą zmienić LLM przy niewielkich lub nawet zerowych kosztach. Zastąpienie oprogramowania opartego na modelach OpenAI, Google lub Anthropic modelem DeepSeek – lub jakimkolwiek innym, który pojawi się w przyszłości – zwykle wymaga aktualizacji zaledwie kilku linijek kodu. Z tego powodu wiele organizacji chętnie sprawdza kolejne rozwiązania, ulegając wizji, że nowy model jest dokładnie tym, czego potrzeba, aby zrewolucjonizować rynek albo pokonać konkurencję.
Chociaż zagwarantowanie pełnej ochrony przed wszystkimi technikami przeciwnika dla konkretnego LLM może być wyzwaniem, organizacje mogą wdrożyć środki bezpieczeństwa, które pomogą monitorować, kiedy i w jaki sposób pracownicy korzystają z LLM. To bardzo ważne, jeśli firmy decydują się na wdrażanie nieautoryzowanych modeli językowych. To nie tylko poprawia bezpieczeństwo firmy, ale również uczy pracowników odpowiedzialnego korzystania z narzędzi.
Źródło: Palo Alto Networks
Jednak po fali euforii okraszonej paniką inwestorów przyszedł czas na dokładniejsze analizy. Jednostka badawcza Unit 42 Palo Alto Networks wykryła, że chiński model posiada poważne luki w zabezpieczeniach i może być niebezpieczny dla korzystających z niego firm .
Na pierwszy rzut oka DeepSeek wydaje się być tak samo wydajny jak najnowocześniejsze narzędzia oferowane przez OpenAI i Google. Co więcej, został wydany na licencji open source, więc każdy programista może go modyfikować bez konieczności uzyskiwania dostępu do kosztownych procesorów graficznych. To bardzo duże przewagi nad konkurencją, dlatego DeepSeek został okrzyknięty „momentem Sputnika” dla sztucznej inteligencji i wywołał panikę wśród inwestorów.
Jednak badania specjalistów z Palo Alto Networks ujawniły niepokojącą prawdę – chiński model sztucznej inteligencji ma poważne luki w zabezpieczeniach i jest szczególnie podatny na tzw. jailbreak . Cyberprzestępcy coraz częściej wykorzystują tę metodę, by oszukać generatywną AI i zmusić ją do tworzenia nielegalnych treści. Dla porównania dobrze zabezpieczony czatbot natychmiast odrzuci próbę uzyskania informacji o budowie ładunku wybuchowego, co jest kluczowym mechanizmem przeciwdziałania zagrożeniom terrorystycznym. Niestety, model DeepSeek może być bezbronny wobec takich prób. Testy wykazały, że potrafi on dostarczać szczegółowych instrukcji dotyczących tworzenia złośliwego oprogramowania do kradzieży haseł i danych, a nawet wyjaśniać, jak skonstruować urządzenia zapalające. Te luki to nie tylko techniczne niedociągnięcia – to furtka dla potencjalnych tragedii.
Cyberprzestępcy otrzymują w ten sposób nowe narzędzia, które mogą ich wspierać w prowadzeniu szeroko zakrojonych cyberataków na przedsiębiorstwa i instytucje publiczne. Przypadek DeepSeek i podatności na jailbreak pokazuje, że nadal w domowych warunkach można nakłonić model językowy do tworzenia złośliwego oprogramowania. Doświadczeni cyberprzestępcy mogą wykorzystać takie narzędzia na znacznie szerszą skalę. W miarę jak LLM stają się coraz bardziej zintegrowane z różnymi aplikacjami, skuteczne zabezpieczanie ich przed niewłaściwym wykorzystaniem jest niezbędne dla rozwoju i wdrażania AI w biznesie bez szkody dla użytkowników i klientów” – powiedział Grzegorz Latosiński, dyrektor krajowy Palo Alto Networks w Polsce.
W najbliższych latach każda organizacja wypracuje własne zasady dotyczące nowych modeli sztucznej inteligencji. Już teraz niektóre z nich całkowicie ich zakazują, inne zezwalają na ograniczone, eksperymentalne i ściśle kontrolowane użycie. Jeszcze inne będą spieszyć się z wdrażaniem AI w jak najszerszym zakresie, chcąc osiągnąć większą wydajność i optymalizację kosztów.
W związku z dużym zapotrzebowaniem na niedrogie rozwiązania DeepSeek nie jest ostatnim modelem, który zaskoczy świat. Minie trochę czasu, zanim technologie AI zostaną w pełni zrozumiane i wyłonią się wyraźni liderzy. Zanim to nastąpi, należy bardzo skrupulatnie podchodzić do wszelkich nowości na tym rynku. Tym bardziej że pokusa testowania nowych modeli jest ogromna.
Organizacje mogą zmienić LLM przy niewielkich lub nawet zerowych kosztach. Zastąpienie oprogramowania opartego na modelach OpenAI, Google lub Anthropic modelem DeepSeek – lub jakimkolwiek innym, który pojawi się w przyszłości – zwykle wymaga aktualizacji zaledwie kilku linijek kodu. Z tego powodu wiele organizacji chętnie sprawdza kolejne rozwiązania, ulegając wizji, że nowy model jest dokładnie tym, czego potrzeba, aby zrewolucjonizować rynek albo pokonać konkurencję.
Chociaż zagwarantowanie pełnej ochrony przed wszystkimi technikami przeciwnika dla konkretnego LLM może być wyzwaniem, organizacje mogą wdrożyć środki bezpieczeństwa, które pomogą monitorować, kiedy i w jaki sposób pracownicy korzystają z LLM. To bardzo ważne, jeśli firmy decydują się na wdrażanie nieautoryzowanych modeli językowych. To nie tylko poprawia bezpieczeństwo firmy, ale również uczy pracowników odpowiedzialnego korzystania z narzędzi.
Źródło: Palo Alto Networks
Najnowsze wiadomości
Kwantowy przełom w cyberochronie - nadchodząca dekada przepisze zasady szyfrowania na nowo
Przez długi czas cyfrowe bezpieczeństwo opierało się na prostym założeniu: współczesne komputery potrzebowałyby ogromnych zasobów i wielu lat, aby złamać silne algorytmy szyfrowania. Rozwój technologii kwantowej zaczyna jednak tę regułę podważać, a eksperci przewidują, że w perspektywie 5–10 lat może nadejść „dzień zero”. Jest to moment, w którym zaawansowana maszyna kwantowa będzie w stanie przełamać większość aktualnie stosowanych zabezpieczeń kryptograficznych w czasie liczonym nie w latach, lecz w godzinach.
PSI prezentuje nową identyfikację wizualną
W ramach realizowanej strategii transformacji PSI Software SE zaprezentowała nową identyfikację wizualną. Odświeżony wizerunek w spójny sposób oddaje technologiczne zaawansowanie firmy, jej głęboką wiedzę branżową oraz silne ukierunkowanie na potrzeby klientów. Zmiany te wzmacniają pozycję PSI jako innowacyjnego lidera technologicznego w obszarze skalowalnych rozwiązań informatycznych opartych na sztucznej inteligencji i chmurze, rozwijanych z myślą o energetyce i przemyśle.
W ramach realizowanej strategii transformacji PSI Software SE zaprezentowała nową identyfikację wizualną. Odświeżony wizerunek w spójny sposób oddaje technologiczne zaawansowanie firmy, jej głęboką wiedzę branżową oraz silne ukierunkowanie na potrzeby klientów. Zmiany te wzmacniają pozycję PSI jako innowacyjnego lidera technologicznego w obszarze skalowalnych rozwiązań informatycznych opartych na sztucznej inteligencji i chmurze, rozwijanych z myślą o energetyce i przemyśle.
PROMAG S.A. rozpoczyna wdrożenie systemu ERP IFS Cloud we współpracy z L-Systems
PROMAG S.A., lider w obszarze intralogistyki, rozpoczął wdrożenie systemu ERP IFS Cloud, który ma wesprzeć dalszy rozwój firmy oraz integrację kluczowych procesów biznesowych. Projekt realizowany jest we współpracy z firmą L-Systems i obejmuje m.in. obszary finansów, produkcji, logistyki, projektów oraz serwisu, odpowiadając na rosnącą skalę i złożoność realizowanych przedsięwzięć.
F5 rozszerza portfolio bezpieczeństwa o narzędzia do ochrony systemów AI w środowiskach enterprise
F5 ogłosiło wprowadzenie dwóch nowych rozwiązań - F5 AI Guardrails oraz F5 AI Red Team - które mają odpowiedzieć na jedno z kluczowych wyzwań współczesnych organizacji: bezpieczne wdrażanie i eksploatację systemów sztucznej inteligencji na dużą skalę. Nowa oferta łączy ochronę działania modeli AI w czasie rzeczywistym z ofensy
Snowflake + OpenAI: AI bliżej biznesu
Snowflake przyspiesza wykorzystanie danych i sztucznej inteligencji w firmach, przenosząc AI z fazy eksperymentów do codziennych procesów biznesowych. Nowe rozwiązania w ramach AI Data Cloud integrują modele AI bezpośrednio z danymi, narzędziami deweloperskimi i warstwą semantyczną. Partnerstwo z OpenAI, agent Cortex Code, Semantic View Autopilot oraz rozwój Snowflake Postgres pokazują, jak budować skalowalne, bezpieczne i mierzalne wdrożenia AI w skali całej organizacji.
Najnowsze artykuły
Magazyn bez błędów? Sprawdź, jak system WMS zmienia codzienność logistyki
Współczesna logistyka wymaga nie tylko szybkości działania, lecz także maksymalnej precyzji – to właśnie te czynniki coraz częściej decydują o przewadze konkurencyjnej firm. Nawet drobne pomyłki w ewidencji stanów magazynowych, błędy przy przyjmowaniu dostaw czy nieprawidłowe rozmieszczenie towarów, mogą skutkować poważnymi stratami finansowymi i opóźnieniami w realizacji zamówień. W jaki sposób nowoczesne rozwiązania do zarządzania pomagają unikać takich sytuacji? Czym właściwie różni się tradycyjny system magazynowy od zaawansowanych rozwiązań klasy WMS (ang. Warehouse Management System)? I w jaki sposób inteligentne zarządzanie procesami magazynowymi realnie usprawnia codzienną pracę setek firm?
Migracja z SAP ECC na S4 HANA: Ryzyka, korzyści i alternatywne rozwiązania
W ostatnich latach wiele firm, które korzystają z systemu SAP ECC (Enterprise Central Component), stoi przed decyzją o przejściu na nowszą wersję — SAP S4 HANA. W obliczu końca wsparcia dla ECC w 2030 roku, temat ten staje się coraz bardziej aktualny. Przemiany technologiczne oraz rosnące oczekiwania związane z integracją nowych funkcji, jak sztuczna inteligencja (AI), skłaniają do refleksji nad tym, czy warto podjąć tak dużą zmianę w architekturze systemu. Przyjrzyjmy się głównym powodom, dla których firmy rozważają migrację do S4 HANA, ale także argumentom, które mogą przemawiać za pozostaniem przy dotychczasowym systemie ECC, przynajmniej na krótki okres.
Jak maksymalizować zyski z MTO i MTS dzięki BPSC ERP?
Zysk przedsiębiorstwa produkcyjnego zależy nie tylko od wydajności maszyn, ale przede wszystkim od precyzyjnego planowania, realnych danych i umiejętnego zarządzania procesami. Dlatego firmy, które chcą skutecznie działać zarówno w modelu Make to Stock (MTS), jak i Make to Order (MTO), coraz częściej sięgają po rozwiązania klasy ERP, takie jak BPSC ERP.
Ponad połowa cyberataków zaczyna się od błędu człowieka
Ponad 2/3 firm w Polsce odnotowała w zeszłym roku co najmniej 1 incydent naruszenia bezpieczeństwa . Według danych Unit 42, zespołu analitycznego Palo Alto Networks, aż 60% ataków rozpoczyna się od działań wymierzonych w pracowników – najczęściej pod postacią phishingu i innych form inżynierii społecznej . To pokazuje, że w systemie ochrony organizacji pracownicy są kluczowym ogniwem – i że firmy muszą nie tylko edukować, ale też konsekwentnie egzekwować zasady cyberhigieny. Warto o tym pamiętać szczególnie teraz, w październiku, gdy obchodzimy Europejski Miesiąc Cyberbezpieczeństwa.
MES - holistyczne zarządzanie produkcją
Nowoczesna produkcja wymaga precyzji, szybkości i pełnej kontroli nad przebiegiem procesów. Rosnąca złożoność zleceń oraz presja kosztowa sprawiają, że ręczne raportowanie i intuicyjne zarządzanie coraz częściej okazują się niewystarczające. Firmy szukają rozwiązań, które umożliwiają im widzenie produkcji „na żywo”, a nie z opóźnieniem kilku godzin czy dni. W tym kontekście kluczową rolę odgrywają narzędzia, które porządkują informacje i pozwalają reagować natychmiast, zamiast po fakcie.
Przeczytaj Również
Kwantowy przełom w cyberochronie - nadchodząca dekada przepisze zasady szyfrowania na nowo
Przez długi czas cyfrowe bezpieczeństwo opierało się na prostym założeniu: współczesne komputery po… / Czytaj więcej
F5 rozszerza portfolio bezpieczeństwa o narzędzia do ochrony systemów AI w środowiskach enterprise
F5 ogłosiło wprowadzenie dwóch nowych rozwiązań – F5 AI Guardrails oraz F5 AI Red Team – które mają… / Czytaj więcej
Cyberodporność fabryk: AI na straży ciągłości produkcji
Cyberataki to poważne zagrożenia wycieku danych oraz utraty zaufania partnerów biznesowych. Coraz c… / Czytaj więcej
Cyberbezpieczeństwo na pierwszym planie: firmy w Polsce zwiększają inwestycje
W 2024 r. wartość polskiego rynku cyberbezpieczeństwa przekroczyła 2,7 mld zł, a wstępne dane dla 2… / Czytaj więcej
Wnioski z NIS2: Kryzys zasobów i kompetencji w obliczu cyberzagrożeń
Dyrektywa NIS2 miała poprawić cyberbezpieczeństwo europejskich firm. W praktyce obnaża ic… / Czytaj więcej
97% firm doświadcza incydentów związanych z Gen AI – jak budować odporność na 2026
Z raportu Capgemini Research Institute „New defenses, new threats: What AI and Gen AI bring to cybe… / Czytaj więcej
Polskie firmy pod presją ransomware - nowe dane ESET
Polskie firmy mierzą się z gwałtownym wzrostem zagrożeń cybernetycznych, a najnowszy raport „Cyberp… / Czytaj więcej
