Sztuczna inteligencja w rękach cyberprzestępców
Katgoria: BEZPIECZEŃSTWO IT / Utworzono: 07 styczeń 2021
Firma Trend Micro wspólnie z Europolem i Międzyregionalnym Instytutem Badań nad Przestępczością i Sprawiedliwością ONZ (UNICRI) opracowała nowy raport dotyczący złośliwego wykorzystania i nadużycia sztucznej inteligencji. W opublikowanym materiale przeanalizowano obecny stan tego zjawiska, a także realne scenariusze, w których cyberprzestępcy mogą używać tych technologii do swoich nielegalnych celów. Artykuł badawczy dostarcza informacje na temat istniejących i potencjalnych ataków wykorzystujących sztuczną inteligencję i uczenie maszynowe oraz zalecenia dotyczące ograniczania tego ryzyka.
Sztuczna inteligencja (ang. Artificial Intelligence, AI) w znaczący sposób wspiera rozwój świata, zapewniając potencjalnie lepszą wydajność oraz większą automatyzację i autonomię systemów. Jako technologia podwójnego zastosowania, stanowi główny filar czwartej rewolucji przemysłowej. Uczenie maszynowe (ang. Machine Learning, ML) — jeden z obszarów AI, który analizuje duże zbiory danych w celu wyodrębniania wzorców za pomocą algorytmów — pozwala przedsiębiorstwom, organizacjom i rządom na imponujące osiągnięcia, które zwiększają innowacyjność i usprawniają działalność.
Już dziś stosowanie zarówno AI, jak i ML w biznesie jest bardzo rozpowszechnione. Do 2020 roku 37% przedsiębiorstw i organizacji zintegrowało sztuczną inteligencję w pewnej formie ze swoimi systemami i procesami. Dzięki narzędziom opartym na tych technologiach przedsiębiorstwa mogą lepiej przewidywać zachowania zakupowe klientów, co przyczynia się do zwiększenia przychodów.
Mimo że AI i ML mogą wspierać działalność biznesową, newralgiczną infrastrukturę i poszczególne branże, a także pomagać w rozwiązywaniu niektórych z największych wyzwań społecznych (w tym pandemii Covid-19), technologie te mogą również skutkować powstaniem wielu nowych zagrożeń cyfrowych, fizycznych i politycznych. Aby zapewnić zarówno przedsiębiorstwom, jak i użytkownikom indywidualnym ochronę przed przestępcami, którzy planują wykorzystywać AI, konieczna jest zdolność do wykrywania i rozumienia zagrożeń oraz potencjalnych przypadków złośliwego wykorzystania systemów AI.
Obecne sposoby nadużywania sztucznej inteligencji i uczenia maszynowego
Cechy, które czynią systemy AI i ML integralną częścią przedsiębiorstw — takie jak dostarczanie automatycznych prognoz poprzez analizę dużych ilości danych i wykrywanie wzorców — są również cechami, które sprawiają, że cyberprzestępcy tak chętnie wykorzystują je do osiągania zysków.
Deepfake
Jednym z bardziej popularnych sposobów nadużywania AI są tzw. deepfake’i, które polegają na stosowaniu sztucznej inteligencji do tworzenia treści dźwiękowych i wizualnych lub manipulowania nimi w celu nadania im autentyczności. Metoda deepfake doskonale się nadaje do wykorzystania w kampaniach dezinformacyjnych, ponieważ na pierwszy rzut oka trudno je odróżnić od rzeczywistych treści — nawet przy użyciu rozwiązań technologicznych. Ze względu na szerokie wykorzystanie Internetu i mediów społecznościowych deepfake’i mogą docierać do milionów osób w różnych częściach świata z niespotykaną wcześniej szybkością.
Odgadywanie haseł przy pomocy AI
Cyberprzestępcy wykorzystują technologię ML, aby ulepszać algorytmy używane do odgadywania haseł użytkowników. Już dziś istnieją bardziej tradycyjne rozwiązania, takie jak HashCat (zaawansowane odzyskiwanie hasła) i John the Ripper (zaawansowany program do łamania haseł offline), które porównują różne warianty skrótu haseł, aby skutecznie odkrywać te, które im odpowiadają. Dzięki wykorzystaniu sieci neuronowych i generatywnych sieci przeciwników (ang. Generative Adversarial Network, GAN) cyberprzestępcy mogliby jednak analizować ogromne zbiory danych dotyczących haseł i generować różne wariacje haseł, pasujące do rozkładu statystycznego. W przyszłości będzie to prowadzić do bardziej precyzyjnego i ukierunkowanego odgadywania haseł, co zwiększy szansę cyberprzestępców na zysk.
Podszywanie się pod użytkowników mediów społecznościowych
Cyberprzestępcy wykorzystują AI również do naśladowania ludzkich zachowań. Są na przykład w stanie z powodzeniem oszukiwać systemy wykrywania botów w platformach społecznościowych, takich jak Spotify, naśladując wzorce użytkowania podobne do ludzkich. Podszywanie się pod innych za pomocą sztucznej inteligencji pozwala cyberprzestępcom zarabiać poprzez generowanie fałszywych odsłuchań i ruchu na stronie wybranego artysty.
Hakowanie przy wsparciu AI
Cyberprzestępcy wykorzystują struktury AI także do hakowania hostów podatnych na zagrożenia. Za przykład może tutaj posłużyć użytkownik platformy Torum, który wyraził zainteresowanie użyciem DeepExploit — narzędzia do przeprowadzania testów penetracyjnych z obsługą ML. Użytkownik ten chciał wiedzieć, w jaki sposób połączyć DeepExploit z Metasploit— platformą testów penetracyjnych do zadań związanych z gromadzeniem informacji, tworzeniem i testowaniem exploitów.
Złośliwe wykorzystywanie i nadużywanie AI i ML w przyszłości
Spodziewamy się, że w przyszłości cyberprzestępcy będą wykorzystywać AI na różne sposoby. Bardzo prawdopodobne, że będą kierować swój wzrok w stronę AI z zamiarem zwiększania zakresu i skali swoich ataków i unikania wykrycia.
Przewidujemy, że będą wykorzystywać sztuczną inteligencję do prowadzenia szkodliwych działań opartych na taktykach inżynierii społecznej, których potencjalnym celem będą przedsiębiorstwa i instytucje. Dzięki wykorzystaniu sztucznej inteligencji cyberprzestępcy mogą automatyzować pierwsze kroki ataku poprzez generowanie treści, usprawniać proces gromadzenia wiedzy o firmach oraz przyspieszać tempo wykrywania potencjalnych ofiar i najbardziej narażonych procesów biznesowych. Może to prowadzić do szybszego i lepiej ukierunkowanego oszukiwania firm za pomocą różnego typu ataków — w tym phishingu i BEC (ang. Business Email Compromise — ataków na pocztę elektroniczną firm).
Sztuczna inteligencja może być również używana do manipulowania obrotem kryptowalutami czy posłużyć do wyrządzania szkód lub nawet zadawania fizycznych obrażeń.
Technologie AI i ML mają wiele pozytywnych zastosowań — takich jak rozpoznawanie obiektów i mowy, tłumaczenie treści, wyodrębnianie wzorców i wspieranie procesów decyzyjnych w różnych branżach i dziedzinach zastosowań. Z drugiej strony technologie te są również nadużywane w celach szkodliwych i niezgodnych z prawem, dlatego bardzo ważne jest rozumienie możliwości, scenariuszy i wektorów ataku dostępnych za ich pomocą. Jeśli zyskamy taką świadomość, będziemy lepiej przygotowani do ochrony systemów, urządzeń i ogółu społeczeństwa przed zaawansowanymi atakami i nadużyciami.
Źródło: Trend Micro
Już dziś stosowanie zarówno AI, jak i ML w biznesie jest bardzo rozpowszechnione. Do 2020 roku 37% przedsiębiorstw i organizacji zintegrowało sztuczną inteligencję w pewnej formie ze swoimi systemami i procesami. Dzięki narzędziom opartym na tych technologiach przedsiębiorstwa mogą lepiej przewidywać zachowania zakupowe klientów, co przyczynia się do zwiększenia przychodów.
Mimo że AI i ML mogą wspierać działalność biznesową, newralgiczną infrastrukturę i poszczególne branże, a także pomagać w rozwiązywaniu niektórych z największych wyzwań społecznych (w tym pandemii Covid-19), technologie te mogą również skutkować powstaniem wielu nowych zagrożeń cyfrowych, fizycznych i politycznych. Aby zapewnić zarówno przedsiębiorstwom, jak i użytkownikom indywidualnym ochronę przed przestępcami, którzy planują wykorzystywać AI, konieczna jest zdolność do wykrywania i rozumienia zagrożeń oraz potencjalnych przypadków złośliwego wykorzystania systemów AI.
Obecne sposoby nadużywania sztucznej inteligencji i uczenia maszynowego
Cechy, które czynią systemy AI i ML integralną częścią przedsiębiorstw — takie jak dostarczanie automatycznych prognoz poprzez analizę dużych ilości danych i wykrywanie wzorców — są również cechami, które sprawiają, że cyberprzestępcy tak chętnie wykorzystują je do osiągania zysków.
Deepfake
Jednym z bardziej popularnych sposobów nadużywania AI są tzw. deepfake’i, które polegają na stosowaniu sztucznej inteligencji do tworzenia treści dźwiękowych i wizualnych lub manipulowania nimi w celu nadania im autentyczności. Metoda deepfake doskonale się nadaje do wykorzystania w kampaniach dezinformacyjnych, ponieważ na pierwszy rzut oka trudno je odróżnić od rzeczywistych treści — nawet przy użyciu rozwiązań technologicznych. Ze względu na szerokie wykorzystanie Internetu i mediów społecznościowych deepfake’i mogą docierać do milionów osób w różnych częściach świata z niespotykaną wcześniej szybkością.
Odgadywanie haseł przy pomocy AI
Cyberprzestępcy wykorzystują technologię ML, aby ulepszać algorytmy używane do odgadywania haseł użytkowników. Już dziś istnieją bardziej tradycyjne rozwiązania, takie jak HashCat (zaawansowane odzyskiwanie hasła) i John the Ripper (zaawansowany program do łamania haseł offline), które porównują różne warianty skrótu haseł, aby skutecznie odkrywać te, które im odpowiadają. Dzięki wykorzystaniu sieci neuronowych i generatywnych sieci przeciwników (ang. Generative Adversarial Network, GAN) cyberprzestępcy mogliby jednak analizować ogromne zbiory danych dotyczących haseł i generować różne wariacje haseł, pasujące do rozkładu statystycznego. W przyszłości będzie to prowadzić do bardziej precyzyjnego i ukierunkowanego odgadywania haseł, co zwiększy szansę cyberprzestępców na zysk.
Podszywanie się pod użytkowników mediów społecznościowych
Cyberprzestępcy wykorzystują AI również do naśladowania ludzkich zachowań. Są na przykład w stanie z powodzeniem oszukiwać systemy wykrywania botów w platformach społecznościowych, takich jak Spotify, naśladując wzorce użytkowania podobne do ludzkich. Podszywanie się pod innych za pomocą sztucznej inteligencji pozwala cyberprzestępcom zarabiać poprzez generowanie fałszywych odsłuchań i ruchu na stronie wybranego artysty.
Hakowanie przy wsparciu AI
Cyberprzestępcy wykorzystują struktury AI także do hakowania hostów podatnych na zagrożenia. Za przykład może tutaj posłużyć użytkownik platformy Torum, który wyraził zainteresowanie użyciem DeepExploit — narzędzia do przeprowadzania testów penetracyjnych z obsługą ML. Użytkownik ten chciał wiedzieć, w jaki sposób połączyć DeepExploit z Metasploit— platformą testów penetracyjnych do zadań związanych z gromadzeniem informacji, tworzeniem i testowaniem exploitów.
Złośliwe wykorzystywanie i nadużywanie AI i ML w przyszłości
Spodziewamy się, że w przyszłości cyberprzestępcy będą wykorzystywać AI na różne sposoby. Bardzo prawdopodobne, że będą kierować swój wzrok w stronę AI z zamiarem zwiększania zakresu i skali swoich ataków i unikania wykrycia.
Przewidujemy, że będą wykorzystywać sztuczną inteligencję do prowadzenia szkodliwych działań opartych na taktykach inżynierii społecznej, których potencjalnym celem będą przedsiębiorstwa i instytucje. Dzięki wykorzystaniu sztucznej inteligencji cyberprzestępcy mogą automatyzować pierwsze kroki ataku poprzez generowanie treści, usprawniać proces gromadzenia wiedzy o firmach oraz przyspieszać tempo wykrywania potencjalnych ofiar i najbardziej narażonych procesów biznesowych. Może to prowadzić do szybszego i lepiej ukierunkowanego oszukiwania firm za pomocą różnego typu ataków — w tym phishingu i BEC (ang. Business Email Compromise — ataków na pocztę elektroniczną firm).
Sztuczna inteligencja może być również używana do manipulowania obrotem kryptowalutami czy posłużyć do wyrządzania szkód lub nawet zadawania fizycznych obrażeń.
Technologie AI i ML mają wiele pozytywnych zastosowań — takich jak rozpoznawanie obiektów i mowy, tłumaczenie treści, wyodrębnianie wzorców i wspieranie procesów decyzyjnych w różnych branżach i dziedzinach zastosowań. Z drugiej strony technologie te są również nadużywane w celach szkodliwych i niezgodnych z prawem, dlatego bardzo ważne jest rozumienie możliwości, scenariuszy i wektorów ataku dostępnych za ich pomocą. Jeśli zyskamy taką świadomość, będziemy lepiej przygotowani do ochrony systemów, urządzeń i ogółu społeczeństwa przed zaawansowanymi atakami i nadużyciami.
Źródło: Trend Micro
Najnowsze wiadomości
Kwantowy przełom w cyberochronie - nadchodząca dekada przepisze zasady szyfrowania na nowo
Przez długi czas cyfrowe bezpieczeństwo opierało się na prostym założeniu: współczesne komputery potrzebowałyby ogromnych zasobów i wielu lat, aby złamać silne algorytmy szyfrowania. Rozwój technologii kwantowej zaczyna jednak tę regułę podważać, a eksperci przewidują, że w perspektywie 5–10 lat może nadejść „dzień zero”. Jest to moment, w którym zaawansowana maszyna kwantowa będzie w stanie przełamać większość aktualnie stosowanych zabezpieczeń kryptograficznych w czasie liczonym nie w latach, lecz w godzinach.
PSI prezentuje nową identyfikację wizualną
W ramach realizowanej strategii transformacji PSI Software SE zaprezentowała nową identyfikację wizualną. Odświeżony wizerunek w spójny sposób oddaje technologiczne zaawansowanie firmy, jej głęboką wiedzę branżową oraz silne ukierunkowanie na potrzeby klientów. Zmiany te wzmacniają pozycję PSI jako innowacyjnego lidera technologicznego w obszarze skalowalnych rozwiązań informatycznych opartych na sztucznej inteligencji i chmurze, rozwijanych z myślą o energetyce i przemyśle.
W ramach realizowanej strategii transformacji PSI Software SE zaprezentowała nową identyfikację wizualną. Odświeżony wizerunek w spójny sposób oddaje technologiczne zaawansowanie firmy, jej głęboką wiedzę branżową oraz silne ukierunkowanie na potrzeby klientów. Zmiany te wzmacniają pozycję PSI jako innowacyjnego lidera technologicznego w obszarze skalowalnych rozwiązań informatycznych opartych na sztucznej inteligencji i chmurze, rozwijanych z myślą o energetyce i przemyśle.
PROMAG S.A. rozpoczyna wdrożenie systemu ERP IFS Cloud we współpracy z L-Systems
PROMAG S.A., lider w obszarze intralogistyki, rozpoczął wdrożenie systemu ERP IFS Cloud, który ma wesprzeć dalszy rozwój firmy oraz integrację kluczowych procesów biznesowych. Projekt realizowany jest we współpracy z firmą L-Systems i obejmuje m.in. obszary finansów, produkcji, logistyki, projektów oraz serwisu, odpowiadając na rosnącą skalę i złożoność realizowanych przedsięwzięć.
F5 rozszerza portfolio bezpieczeństwa o narzędzia do ochrony systemów AI w środowiskach enterprise
F5 ogłosiło wprowadzenie dwóch nowych rozwiązań - F5 AI Guardrails oraz F5 AI Red Team - które mają odpowiedzieć na jedno z kluczowych wyzwań współczesnych organizacji: bezpieczne wdrażanie i eksploatację systemów sztucznej inteligencji na dużą skalę. Nowa oferta łączy ochronę działania modeli AI w czasie rzeczywistym z ofensy
Snowflake + OpenAI: AI bliżej biznesu
Snowflake przyspiesza wykorzystanie danych i sztucznej inteligencji w firmach, przenosząc AI z fazy eksperymentów do codziennych procesów biznesowych. Nowe rozwiązania w ramach AI Data Cloud integrują modele AI bezpośrednio z danymi, narzędziami deweloperskimi i warstwą semantyczną. Partnerstwo z OpenAI, agent Cortex Code, Semantic View Autopilot oraz rozwój Snowflake Postgres pokazują, jak budować skalowalne, bezpieczne i mierzalne wdrożenia AI w skali całej organizacji.
Najnowsze artykuły
Magazyn bez błędów? Sprawdź, jak system WMS zmienia codzienność logistyki
Współczesna logistyka wymaga nie tylko szybkości działania, lecz także maksymalnej precyzji – to właśnie te czynniki coraz częściej decydują o przewadze konkurencyjnej firm. Nawet drobne pomyłki w ewidencji stanów magazynowych, błędy przy przyjmowaniu dostaw czy nieprawidłowe rozmieszczenie towarów, mogą skutkować poważnymi stratami finansowymi i opóźnieniami w realizacji zamówień. W jaki sposób nowoczesne rozwiązania do zarządzania pomagają unikać takich sytuacji? Czym właściwie różni się tradycyjny system magazynowy od zaawansowanych rozwiązań klasy WMS (ang. Warehouse Management System)? I w jaki sposób inteligentne zarządzanie procesami magazynowymi realnie usprawnia codzienną pracę setek firm?
Migracja z SAP ECC na S4 HANA: Ryzyka, korzyści i alternatywne rozwiązania
W ostatnich latach wiele firm, które korzystają z systemu SAP ECC (Enterprise Central Component), stoi przed decyzją o przejściu na nowszą wersję — SAP S4 HANA. W obliczu końca wsparcia dla ECC w 2030 roku, temat ten staje się coraz bardziej aktualny. Przemiany technologiczne oraz rosnące oczekiwania związane z integracją nowych funkcji, jak sztuczna inteligencja (AI), skłaniają do refleksji nad tym, czy warto podjąć tak dużą zmianę w architekturze systemu. Przyjrzyjmy się głównym powodom, dla których firmy rozważają migrację do S4 HANA, ale także argumentom, które mogą przemawiać za pozostaniem przy dotychczasowym systemie ECC, przynajmniej na krótki okres.
Jak maksymalizować zyski z MTO i MTS dzięki BPSC ERP?
Zysk przedsiębiorstwa produkcyjnego zależy nie tylko od wydajności maszyn, ale przede wszystkim od precyzyjnego planowania, realnych danych i umiejętnego zarządzania procesami. Dlatego firmy, które chcą skutecznie działać zarówno w modelu Make to Stock (MTS), jak i Make to Order (MTO), coraz częściej sięgają po rozwiązania klasy ERP, takie jak BPSC ERP.
Ponad połowa cyberataków zaczyna się od błędu człowieka
Ponad 2/3 firm w Polsce odnotowała w zeszłym roku co najmniej 1 incydent naruszenia bezpieczeństwa . Według danych Unit 42, zespołu analitycznego Palo Alto Networks, aż 60% ataków rozpoczyna się od działań wymierzonych w pracowników – najczęściej pod postacią phishingu i innych form inżynierii społecznej . To pokazuje, że w systemie ochrony organizacji pracownicy są kluczowym ogniwem – i że firmy muszą nie tylko edukować, ale też konsekwentnie egzekwować zasady cyberhigieny. Warto o tym pamiętać szczególnie teraz, w październiku, gdy obchodzimy Europejski Miesiąc Cyberbezpieczeństwa.
MES - holistyczne zarządzanie produkcją
Nowoczesna produkcja wymaga precyzji, szybkości i pełnej kontroli nad przebiegiem procesów. Rosnąca złożoność zleceń oraz presja kosztowa sprawiają, że ręczne raportowanie i intuicyjne zarządzanie coraz częściej okazują się niewystarczające. Firmy szukają rozwiązań, które umożliwiają im widzenie produkcji „na żywo”, a nie z opóźnieniem kilku godzin czy dni. W tym kontekście kluczową rolę odgrywają narzędzia, które porządkują informacje i pozwalają reagować natychmiast, zamiast po fakcie.
Przeczytaj Również
Kwantowy przełom w cyberochronie - nadchodząca dekada przepisze zasady szyfrowania na nowo
Przez długi czas cyfrowe bezpieczeństwo opierało się na prostym założeniu: współczesne komputery po… / Czytaj więcej
F5 rozszerza portfolio bezpieczeństwa o narzędzia do ochrony systemów AI w środowiskach enterprise
F5 ogłosiło wprowadzenie dwóch nowych rozwiązań – F5 AI Guardrails oraz F5 AI Red Team – które mają… / Czytaj więcej
Cyberodporność fabryk: AI na straży ciągłości produkcji
Cyberataki to poważne zagrożenia wycieku danych oraz utraty zaufania partnerów biznesowych. Coraz c… / Czytaj więcej
Cyberbezpieczeństwo na pierwszym planie: firmy w Polsce zwiększają inwestycje
W 2024 r. wartość polskiego rynku cyberbezpieczeństwa przekroczyła 2,7 mld zł, a wstępne dane dla 2… / Czytaj więcej
Wnioski z NIS2: Kryzys zasobów i kompetencji w obliczu cyberzagrożeń
Dyrektywa NIS2 miała poprawić cyberbezpieczeństwo europejskich firm. W praktyce obnaża ic… / Czytaj więcej
97% firm doświadcza incydentów związanych z Gen AI – jak budować odporność na 2026
Z raportu Capgemini Research Institute „New defenses, new threats: What AI and Gen AI bring to cybe… / Czytaj więcej
Polskie firmy pod presją ransomware - nowe dane ESET
Polskie firmy mierzą się z gwałtownym wzrostem zagrożeń cybernetycznych, a najnowszy raport „Cyberp… / Czytaj więcej

