Sztuczna inteligencja a bezpieczeństwo danych
Katgoria: WIADOMOŚCI / Utworzono: 17 listopad 2022
Sztuczna inteligencja (AI) odgrywa kluczową rolę we współczesnym społeczeństwie. Żyjemy w czasach cyfryzacji firm, a sami jesteśmy użytkownikami najnowszych technologii na co dzień. AI prowadzi samochody, rozpoznaje obrazy, rozumie języki i steruje złożonymi maszynami przemysłowymi. Jednak te systemy podejmowania decyzji mogą mieć wady, które należy zidentyfikować i rozwiązać na etapie projektowania, w przeciwnym razie mogą prowadzić do strat ekonomicznych i utraty zaufania społecznego do sztucznej inteligencji.
W Capgemini tę nową erę transformacji nazywa się „inteligentnym przemysłem” lub „Przemysłem 4.0”. Inteligentny przemysł polega na wspieraniu synergii między światem cyfrowych procesów biznesowych i fizycznych procesów produkcyjnych, aby pomóc firmom w tworzeniu inteligentnych produktów, operacji i usług na dużą skalę. Jest to era zależna od oprogramowania, napędzana danymi i zdefiniowana przez zrównoważony rozwój oparty na technologii. Od umożliwienia klientom z branży motoryzacyjnej wyboru i zainstalowania funkcji, które mają na celu poprawę wrażeń użytkownika, przez umożliwienie przełomowego podejścia do odkrywania leków w naukach przyrodniczych, po znaczne ograniczenie odpadów i emisji gazów cieplarnianych w operacjach produkcyjnych — to era, która oferuje niezwykły zakres możliwości, ale niesie ze sobą także ryzyko, na które musimy dziś odpowiadać.
Potrzeba wytycznych i regulacji
W ciągu ostatnich kilku lat liczba interakcji bezdotykowych z organizacjami zarówno z sektora publicznego, jak i prywatnego wzrosła wykładniczo, a pandemia dodatkowo napędziła ten wzrost. Doświadczenie, które zdobyliśmy podczas kwarantanny i pracy zdalnej, wywołało zwiększenie zainteresowania wykorzystaniem AI w celu usprawnienia operacji biznesowych i produktywności. Wraz ze wzrostem tempa wdrażania rozwiązań AI łatwo było przeoczyć etyczne aspekty sztucznej inteligencji. W odpowiedzi nastąpił silny globalny ruch wokół przepisów dot. AI, który w nadchodzących latach będzie nadal cieszył się dużym zainteresowaniem.
Organy regulacyjne muszą położyć nacisk na opracowanie kryteriów odporności dla systemów sztucznej inteligencji o znaczeniu krytycznym dla bezpieczeństwa oraz metod sprawdzania, czy takie kryteria są spełnione. Należy stworzyć znormalizowane ramy testowania, oceny i audytu, aby wspierać rozwój systemów autonomicznych z myślą o bezpieczeństwie społeczeństwa i operacji biznesowych.
Zaproponowany przez Komisję Europejską w kwietniu 2021 r. projekt rozporządzenia o sztucznej inteligencji to chyba jedna z najbardziej znanych regulacji. Jego celem jest wymuszenie etycznego i bezpiecznego korzystania ze sztucznej inteligencji poprzez kategoryzację rozwiązań AI na podstawie poziomu ryzyka. Zagrożenia te rozciągają się od niedopuszczalnego i wysokiego ryzyka do zastosowań o niższym ryzyku, w zależności od skali i poziomu wpływu na społeczeństwo. W Polsce o rok wcześniej, w 2020 roku, został opublikowany dokument “Polityka dla rozwoju sztucznej inteligencji w Polsce od roku 2020”, który rozpatruje kwestie bezpieczeństwa danych.
Bezpieczeństwo danych musi być wpisane w pracę twórców AI
Wraz z rozwojem sztucznej inteligencji, wzrasta zapotrzebowanie na dane, które dziś jest większe niż kiedykolwiek wcześniej i w większości napędzane przez konsumentów. Jednak szansa na większą swobodę, jaką dają łatwo dostępne dane, niesie ze sobą ryzyko dla ich ochrony i prywatności. Dla przykładu – długie umowy mogą skłaniać konsumentów do kliknięcia „akceptuj” bez sprawdzania, jakie dokładnie prawa nadają administratorowi danych. Firmy mogą z kolei wprowadzać dane konsumentów i dostawców do zaawansowanych algorytmów opartych na sztucznej inteligencji. Rozpoznawanie twarzy, systemy identyfikacji głosu i inteligentne urządzenia domowe zbierają dane o tym, kiedy przychodzimy i wychodzimy z domu. Chociaż wiele takich funkcji zapewnia przydatne usługi, potencjalne ryzyko, jakie niosą ze sobą, nie jest trywialne: pozornie anonimowe dane mogą zostać zdeanonimizowane przez sztuczną inteligencję. Zebrane informacje mogą również umożliwić śledzenie, monitorowanie, profilowanie osób i przewidywanie ich zachowań. Podnosząc analizę danych osobowych do nowych poziomów mocy i szybkości, sztuczna inteligencja zwiększa naszą zdolność do wykorzystywania – i nadużywania – danych osobowych, stanowiąc wyzwanie dla prywatności i ochrony danych.
Bezpieczeństwo i prywatność są fundamentalnymi składowymi projektu rozwiązania, gdzie zagrożenia wynikają z samego wdrożenia (limitacji technologicznych lub błędnych założeń). Dlatego pracując nad rozwiązaniami opartymi o sztuczną inteligencję, firmy muszą wdrażać wszystkie niezbędne środki, by przyczynić się do realizacji celów AI klientów w zakresie zgodności z przepisami dotyczącymi prywatności, ochrony danych i właściwego zarządzania nimi. Sztuczna inteligencja i ochrona danych są kompatybilne, o ile ochrona danych i cyberbezpieczeństwo są brane pod uwagę na etapie projektowania każdego wdrożenia AI. Oprócz zapewnienia pełnego poszanowania przepisów i regulacji, należy również wprowadzić odpowiednie mechanizmy zarządzania danymi. Już dzisiaj przedsiębiorstwa opracowujące rozwiązania oparte o AI mogą ograniczać ten nowy rodzaj ryzyka poprzez ograniczenie miejsca procesowania danych wyłącznie do urządzenia lub całkowicie zastąpienia danych potrzebnych do projektu dzięki tak zwanym danymi syntetycznymi (tj. sztucznie przygotowanymi na potrzeby projektu). Kluczowym jest rozwój nowych modeli cyberbezpieczeństwa jak prywatność różnicowa (ang. differential privacy) pozwalającej na gromadzeniu i analizie dużych zbiorów danych bez zawarcia informacji o osobach. W praktyce oznacza to, że każdy projekt AI musiałby zapewniać, że gromadzone i przetwarzane są tylko dane, które są absolutnie niezbędne. W rzeczywistości muszą być one proporcjonalne, dokładne i przetwarzane w bezpieczny sposób. Osoby fizyczne muszą otrzymywać odpowiednie informacje o sposobie przetwarzania ich danych i należy im zapewnić odpowiednie środki do wykonywania przysługujących im praw, zgodnie z wymogami regulacyjnymi.
Czy społeczeństwo powinno zaufać sztucznej inteligencji?
Inteligentne algorytmy odgrywają znaczącą rolę we wszystkim, od najprostszych zakupów po to, jak bronimy granic państwowych. Duże postępy w zakresie mocy obliczeniowej i przechowywania danych, w połączeniu ze zwiększoną cyfryzacją procesów, które wcześniej były analogowe, napędzają bezprecedensowy rozwój rozwiązań z zakresu sztucznej inteligencji. Podczas gdy większość twierdzi, że postępy te przyniosły znaczne korzyści społeczeństwu, wiele osób jest zaniepokojonych etycznymi konsekwencjami podejmowania decyzji przez maszyny. Zapewnienie bezpiecznego i etycznego działania rozwiązań z zakresu AI jest istotną troską zarówno firm korzystających z tych rozwiązań, jak i ogółu społeczeństwa. Oznacza to, że należy stworzyć niezbędne środowisko zarządzania i kontroli rozwiązań AI, aby zapewnić bezpieczny i etyczny stan dla wszystkich części składowych.
Budowanie bezpieczniejszych systemów sztucznej inteligencji jest najważniejszym wyzwaniem, przed którym dziś stoimy. Badania Instytutu Badawczego Capgemini dotyczące etyki w sztucznej inteligencji pokazują, że w czasie pandemii 60 proc. organizacji zostało poddanych kontroli prawnej, a 22 proc. spotkało się z reakcją klientów z powodu decyzji podjętych przez ich systemy sztucznej inteligencji.1 Kwestie bezpieczeństwa mogą poważnie zachwiać zaufaniem do technologii – szczególnie wdrażanej głownie, aby osiągnąć efekt marketingowy. Chociaż w tworzenie bardziej zrozumiałych, przejrzystych i solidnych systemów AI włożono już bardzo wiele pracy, organizacje i organy regulacyjne już teraz podejmują wstępne kroki w celu zaadresowania tych wyzwań – efekty tych prac legislacyjnych możemy odczuć już wkrótce.
Źródło: Capgemini
Potrzeba wytycznych i regulacji
W ciągu ostatnich kilku lat liczba interakcji bezdotykowych z organizacjami zarówno z sektora publicznego, jak i prywatnego wzrosła wykładniczo, a pandemia dodatkowo napędziła ten wzrost. Doświadczenie, które zdobyliśmy podczas kwarantanny i pracy zdalnej, wywołało zwiększenie zainteresowania wykorzystaniem AI w celu usprawnienia operacji biznesowych i produktywności. Wraz ze wzrostem tempa wdrażania rozwiązań AI łatwo było przeoczyć etyczne aspekty sztucznej inteligencji. W odpowiedzi nastąpił silny globalny ruch wokół przepisów dot. AI, który w nadchodzących latach będzie nadal cieszył się dużym zainteresowaniem.
Organy regulacyjne muszą położyć nacisk na opracowanie kryteriów odporności dla systemów sztucznej inteligencji o znaczeniu krytycznym dla bezpieczeństwa oraz metod sprawdzania, czy takie kryteria są spełnione. Należy stworzyć znormalizowane ramy testowania, oceny i audytu, aby wspierać rozwój systemów autonomicznych z myślą o bezpieczeństwie społeczeństwa i operacji biznesowych.
Zaproponowany przez Komisję Europejską w kwietniu 2021 r. projekt rozporządzenia o sztucznej inteligencji to chyba jedna z najbardziej znanych regulacji. Jego celem jest wymuszenie etycznego i bezpiecznego korzystania ze sztucznej inteligencji poprzez kategoryzację rozwiązań AI na podstawie poziomu ryzyka. Zagrożenia te rozciągają się od niedopuszczalnego i wysokiego ryzyka do zastosowań o niższym ryzyku, w zależności od skali i poziomu wpływu na społeczeństwo. W Polsce o rok wcześniej, w 2020 roku, został opublikowany dokument “Polityka dla rozwoju sztucznej inteligencji w Polsce od roku 2020”, który rozpatruje kwestie bezpieczeństwa danych.
Bezpieczeństwo danych musi być wpisane w pracę twórców AI
Wraz z rozwojem sztucznej inteligencji, wzrasta zapotrzebowanie na dane, które dziś jest większe niż kiedykolwiek wcześniej i w większości napędzane przez konsumentów. Jednak szansa na większą swobodę, jaką dają łatwo dostępne dane, niesie ze sobą ryzyko dla ich ochrony i prywatności. Dla przykładu – długie umowy mogą skłaniać konsumentów do kliknięcia „akceptuj” bez sprawdzania, jakie dokładnie prawa nadają administratorowi danych. Firmy mogą z kolei wprowadzać dane konsumentów i dostawców do zaawansowanych algorytmów opartych na sztucznej inteligencji. Rozpoznawanie twarzy, systemy identyfikacji głosu i inteligentne urządzenia domowe zbierają dane o tym, kiedy przychodzimy i wychodzimy z domu. Chociaż wiele takich funkcji zapewnia przydatne usługi, potencjalne ryzyko, jakie niosą ze sobą, nie jest trywialne: pozornie anonimowe dane mogą zostać zdeanonimizowane przez sztuczną inteligencję. Zebrane informacje mogą również umożliwić śledzenie, monitorowanie, profilowanie osób i przewidywanie ich zachowań. Podnosząc analizę danych osobowych do nowych poziomów mocy i szybkości, sztuczna inteligencja zwiększa naszą zdolność do wykorzystywania – i nadużywania – danych osobowych, stanowiąc wyzwanie dla prywatności i ochrony danych.
Bezpieczeństwo i prywatność są fundamentalnymi składowymi projektu rozwiązania, gdzie zagrożenia wynikają z samego wdrożenia (limitacji technologicznych lub błędnych założeń). Dlatego pracując nad rozwiązaniami opartymi o sztuczną inteligencję, firmy muszą wdrażać wszystkie niezbędne środki, by przyczynić się do realizacji celów AI klientów w zakresie zgodności z przepisami dotyczącymi prywatności, ochrony danych i właściwego zarządzania nimi. Sztuczna inteligencja i ochrona danych są kompatybilne, o ile ochrona danych i cyberbezpieczeństwo są brane pod uwagę na etapie projektowania każdego wdrożenia AI. Oprócz zapewnienia pełnego poszanowania przepisów i regulacji, należy również wprowadzić odpowiednie mechanizmy zarządzania danymi. Już dzisiaj przedsiębiorstwa opracowujące rozwiązania oparte o AI mogą ograniczać ten nowy rodzaj ryzyka poprzez ograniczenie miejsca procesowania danych wyłącznie do urządzenia lub całkowicie zastąpienia danych potrzebnych do projektu dzięki tak zwanym danymi syntetycznymi (tj. sztucznie przygotowanymi na potrzeby projektu). Kluczowym jest rozwój nowych modeli cyberbezpieczeństwa jak prywatność różnicowa (ang. differential privacy) pozwalającej na gromadzeniu i analizie dużych zbiorów danych bez zawarcia informacji o osobach. W praktyce oznacza to, że każdy projekt AI musiałby zapewniać, że gromadzone i przetwarzane są tylko dane, które są absolutnie niezbędne. W rzeczywistości muszą być one proporcjonalne, dokładne i przetwarzane w bezpieczny sposób. Osoby fizyczne muszą otrzymywać odpowiednie informacje o sposobie przetwarzania ich danych i należy im zapewnić odpowiednie środki do wykonywania przysługujących im praw, zgodnie z wymogami regulacyjnymi.
Czy społeczeństwo powinno zaufać sztucznej inteligencji?
Inteligentne algorytmy odgrywają znaczącą rolę we wszystkim, od najprostszych zakupów po to, jak bronimy granic państwowych. Duże postępy w zakresie mocy obliczeniowej i przechowywania danych, w połączeniu ze zwiększoną cyfryzacją procesów, które wcześniej były analogowe, napędzają bezprecedensowy rozwój rozwiązań z zakresu sztucznej inteligencji. Podczas gdy większość twierdzi, że postępy te przyniosły znaczne korzyści społeczeństwu, wiele osób jest zaniepokojonych etycznymi konsekwencjami podejmowania decyzji przez maszyny. Zapewnienie bezpiecznego i etycznego działania rozwiązań z zakresu AI jest istotną troską zarówno firm korzystających z tych rozwiązań, jak i ogółu społeczeństwa. Oznacza to, że należy stworzyć niezbędne środowisko zarządzania i kontroli rozwiązań AI, aby zapewnić bezpieczny i etyczny stan dla wszystkich części składowych.
Budowanie bezpieczniejszych systemów sztucznej inteligencji jest najważniejszym wyzwaniem, przed którym dziś stoimy. Badania Instytutu Badawczego Capgemini dotyczące etyki w sztucznej inteligencji pokazują, że w czasie pandemii 60 proc. organizacji zostało poddanych kontroli prawnej, a 22 proc. spotkało się z reakcją klientów z powodu decyzji podjętych przez ich systemy sztucznej inteligencji.1 Kwestie bezpieczeństwa mogą poważnie zachwiać zaufaniem do technologii – szczególnie wdrażanej głownie, aby osiągnąć efekt marketingowy. Chociaż w tworzenie bardziej zrozumiałych, przejrzystych i solidnych systemów AI włożono już bardzo wiele pracy, organizacje i organy regulacyjne już teraz podejmują wstępne kroki w celu zaadresowania tych wyzwań – efekty tych prac legislacyjnych możemy odczuć już wkrótce.
Źródło: Capgemini
Najnowsze wiadomości
Kwantowy przełom w cyberochronie - nadchodząca dekada przepisze zasady szyfrowania na nowo
Przez długi czas cyfrowe bezpieczeństwo opierało się na prostym założeniu: współczesne komputery potrzebowałyby ogromnych zasobów i wielu lat, aby złamać silne algorytmy szyfrowania. Rozwój technologii kwantowej zaczyna jednak tę regułę podważać, a eksperci przewidują, że w perspektywie 5–10 lat może nadejść „dzień zero”. Jest to moment, w którym zaawansowana maszyna kwantowa będzie w stanie przełamać większość aktualnie stosowanych zabezpieczeń kryptograficznych w czasie liczonym nie w latach, lecz w godzinach.
PSI prezentuje nową identyfikację wizualną
W ramach realizowanej strategii transformacji PSI Software SE zaprezentowała nową identyfikację wizualną. Odświeżony wizerunek w spójny sposób oddaje technologiczne zaawansowanie firmy, jej głęboką wiedzę branżową oraz silne ukierunkowanie na potrzeby klientów. Zmiany te wzmacniają pozycję PSI jako innowacyjnego lidera technologicznego w obszarze skalowalnych rozwiązań informatycznych opartych na sztucznej inteligencji i chmurze, rozwijanych z myślą o energetyce i przemyśle.
W ramach realizowanej strategii transformacji PSI Software SE zaprezentowała nową identyfikację wizualną. Odświeżony wizerunek w spójny sposób oddaje technologiczne zaawansowanie firmy, jej głęboką wiedzę branżową oraz silne ukierunkowanie na potrzeby klientów. Zmiany te wzmacniają pozycję PSI jako innowacyjnego lidera technologicznego w obszarze skalowalnych rozwiązań informatycznych opartych na sztucznej inteligencji i chmurze, rozwijanych z myślą o energetyce i przemyśle.
PROMAG S.A. rozpoczyna wdrożenie systemu ERP IFS Cloud we współpracy z L-Systems
PROMAG S.A., lider w obszarze intralogistyki, rozpoczął wdrożenie systemu ERP IFS Cloud, który ma wesprzeć dalszy rozwój firmy oraz integrację kluczowych procesów biznesowych. Projekt realizowany jest we współpracy z firmą L-Systems i obejmuje m.in. obszary finansów, produkcji, logistyki, projektów oraz serwisu, odpowiadając na rosnącą skalę i złożoność realizowanych przedsięwzięć.
F5 rozszerza portfolio bezpieczeństwa o narzędzia do ochrony systemów AI w środowiskach enterprise
F5 ogłosiło wprowadzenie dwóch nowych rozwiązań - F5 AI Guardrails oraz F5 AI Red Team - które mają odpowiedzieć na jedno z kluczowych wyzwań współczesnych organizacji: bezpieczne wdrażanie i eksploatację systemów sztucznej inteligencji na dużą skalę. Nowa oferta łączy ochronę działania modeli AI w czasie rzeczywistym z ofensy
Snowflake + OpenAI: AI bliżej biznesu
Snowflake przyspiesza wykorzystanie danych i sztucznej inteligencji w firmach, przenosząc AI z fazy eksperymentów do codziennych procesów biznesowych. Nowe rozwiązania w ramach AI Data Cloud integrują modele AI bezpośrednio z danymi, narzędziami deweloperskimi i warstwą semantyczną. Partnerstwo z OpenAI, agent Cortex Code, Semantic View Autopilot oraz rozwój Snowflake Postgres pokazują, jak budować skalowalne, bezpieczne i mierzalne wdrożenia AI w skali całej organizacji.
Najnowsze artykuły
Magazyn bez błędów? Sprawdź, jak system WMS zmienia codzienność logistyki
Współczesna logistyka wymaga nie tylko szybkości działania, lecz także maksymalnej precyzji – to właśnie te czynniki coraz częściej decydują o przewadze konkurencyjnej firm. Nawet drobne pomyłki w ewidencji stanów magazynowych, błędy przy przyjmowaniu dostaw czy nieprawidłowe rozmieszczenie towarów, mogą skutkować poważnymi stratami finansowymi i opóźnieniami w realizacji zamówień. W jaki sposób nowoczesne rozwiązania do zarządzania pomagają unikać takich sytuacji? Czym właściwie różni się tradycyjny system magazynowy od zaawansowanych rozwiązań klasy WMS (ang. Warehouse Management System)? I w jaki sposób inteligentne zarządzanie procesami magazynowymi realnie usprawnia codzienną pracę setek firm?
Migracja z SAP ECC na S4 HANA: Ryzyka, korzyści i alternatywne rozwiązania
W ostatnich latach wiele firm, które korzystają z systemu SAP ECC (Enterprise Central Component), stoi przed decyzją o przejściu na nowszą wersję — SAP S4 HANA. W obliczu końca wsparcia dla ECC w 2030 roku, temat ten staje się coraz bardziej aktualny. Przemiany technologiczne oraz rosnące oczekiwania związane z integracją nowych funkcji, jak sztuczna inteligencja (AI), skłaniają do refleksji nad tym, czy warto podjąć tak dużą zmianę w architekturze systemu. Przyjrzyjmy się głównym powodom, dla których firmy rozważają migrację do S4 HANA, ale także argumentom, które mogą przemawiać za pozostaniem przy dotychczasowym systemie ECC, przynajmniej na krótki okres.
Jak maksymalizować zyski z MTO i MTS dzięki BPSC ERP?
Zysk przedsiębiorstwa produkcyjnego zależy nie tylko od wydajności maszyn, ale przede wszystkim od precyzyjnego planowania, realnych danych i umiejętnego zarządzania procesami. Dlatego firmy, które chcą skutecznie działać zarówno w modelu Make to Stock (MTS), jak i Make to Order (MTO), coraz częściej sięgają po rozwiązania klasy ERP, takie jak BPSC ERP.
Ponad połowa cyberataków zaczyna się od błędu człowieka
Ponad 2/3 firm w Polsce odnotowała w zeszłym roku co najmniej 1 incydent naruszenia bezpieczeństwa . Według danych Unit 42, zespołu analitycznego Palo Alto Networks, aż 60% ataków rozpoczyna się od działań wymierzonych w pracowników – najczęściej pod postacią phishingu i innych form inżynierii społecznej . To pokazuje, że w systemie ochrony organizacji pracownicy są kluczowym ogniwem – i że firmy muszą nie tylko edukować, ale też konsekwentnie egzekwować zasady cyberhigieny. Warto o tym pamiętać szczególnie teraz, w październiku, gdy obchodzimy Europejski Miesiąc Cyberbezpieczeństwa.
MES - holistyczne zarządzanie produkcją
Nowoczesna produkcja wymaga precyzji, szybkości i pełnej kontroli nad przebiegiem procesów. Rosnąca złożoność zleceń oraz presja kosztowa sprawiają, że ręczne raportowanie i intuicyjne zarządzanie coraz częściej okazują się niewystarczające. Firmy szukają rozwiązań, które umożliwiają im widzenie produkcji „na żywo”, a nie z opóźnieniem kilku godzin czy dni. W tym kontekście kluczową rolę odgrywają narzędzia, które porządkują informacje i pozwalają reagować natychmiast, zamiast po fakcie.
Przeczytaj Również
PSI prezentuje nową identyfikację wizualną
W ramach realizowanej strategii transformacji PSI Software SE zaprezentowała nową identyfikację wiz… / Czytaj więcej
Snowflake + OpenAI: AI bliżej biznesu
Snowflake przyspiesza wykorzystanie danych i sztucznej inteligencji w firmach, przenosząc AI z fazy… / Czytaj więcej
Nowa era komunikacji biznesowej, KSeF stał się faktem
Od 1 lutego 2026 roku, w Polsce z sukcesem rozpoczęła się nowa era elektronicznej komunikacji w biz… / Czytaj więcej
Hakerzy nie kradną już tylko haseł. Oni kradną Twój czas i przyszłość. Jak chronić ERP przed paraliżem?
Hakerzy coraz rzadziej koncentrują się wyłącznie na kradzieży haseł. Ich prawdziwym celem jest dziś… / Czytaj więcej
AI bez hype’u – od eksperymentów do infrastruktury decyzji
Sektory IT oraz logistyka stoją u progu fundamentalnej zmiany w podejściu do sztucznej inteligencji… / Czytaj więcej

