Czy AI może wykorzystywać dane bez narażania prywatności?
Inteligentne produkty i usługi muszą znaleźć równowagę między rozwojem a ochroną prywatności użytkowników. Bezpieczeństwo danych jest coraz ważniejsze w obliczu rosnącego znaczenia sztucznej inteligencji. Dzięki obecnym możliwościom, nawet dane anonimowe mogą być poddawane analizie w celu identyfikacji osób i uzyskania informacji o ich prywatności, jak to zostało ujawnione przez Netflix w 2006 roku. Jakie są nowoczesne rozwiązania tego problemu?


 REKLAMA 
 RAPORT ERP 2022 
 
 Aby stworzyć i wyszkolić systemy oparte na sztucznej inteligencji, potrzebne jest udostępnienie olbrzymiej ilości danych przez użytkowników. Urządzenia medyczne rejestrują dane dotyczące takie jak tętno, dieta, genetyka czy historia terapii. Inteligentne urządzenia domowe zbierają informacje o codziennych czynnościach jakie wykonujemy w naszych domach. Natomiast systemy wspomagające jazdę zbierają informacje o położeniu, stylie jazdy i przekraczaniu ograniczeń prędkości.
 
Te dane mogą być wrażliwe, dlatego stosuje się anonimizację w celu ich ochrony. Jednak pojawia się problem, gdy potrzeba deanonimizacji jest konieczna do skutecznego trenowania modeli, które są podstawą inteligentnych produktów. To może prowadzić do ujawnienia prywatnych informacji oraz do utraty lub kradzieży danych. Kompromis w zakresie ich udostępniania jest trudny, ponieważ im lepsze i precyzyjniejsze modele, tym więcej danych jest potrzebnych, co zwiększa ryzyko dla prywatności. Z drugiej strony, im więcej informacji posiadają eksperci i im więcej różnych ekspertów jest zaangażowanych, tym więcej wartości mogą one potencjalnie przynieść.

Ten kompromis jest często przedstawiany jako „możemy prowadzić analizę danych lub zachować prywatność, ale nie jedno i drugie”. Nie zawsze jednak trzeba dokonywać tego wyboru. To dlatego, że małe, skoncentrowane zespoły mogą bezpiecznie pracować stosując nowoczesne rozwiązania i metody posługiwania się danymi w procesach uczenia maszynowego, obliczeń lub analizy danych. Oczywiście im więcej danych jest udostępnianych, tym większa potencjalna korzyść i jednocześnie większe ryzyko – mówi Edward Gołda, Data Protection Officer w Capgemini Polska.


Nowe rozwiązania chroniące prywatność

Zasady ochrony prywatności są surowe, a użytkownicy inteligentnych narzędzi nie chcą aby ich zaufanie było wystawione na próbę. Firma Deepmind przekonała się o tym w 2017 roku. Aplikacja Streams, wykorzystująca dane brytyjskiego narodowego funduszu zdrowia, zajmowała się szacowaniem ryzyka ostrego uszkodzenia nerek u wybranych pacjentów. Jednak podczas tworzenia aplikacji firmie nielegalnie udostępniono dokumentację medyczną 1,6 miliona pacjentów, nie poddając jej anonimizacji. To narzędzie, które mogło ratować życie, zostało ostatecznie wycofane, ponieważ podczas wykorzystywania danych osobowych do tworzenia inteligentnego produktu zupełnie pominięto kwestię ochrony prywatności. Przy udostępnianiu bazy danych pacjentów, można było zastosować dostępne sposoby wykorzystania danych do tworzenia AI, chroniące prywatność użytkowników. Stosując te nowoczesne metody podczas przekazywania informacji firmie, możliwe było uniknięcie opisanego problemu. Dziś istnieje już cała gama rozwiązań, które sprawdzają się w tym zakresie. Jakie to rozwiązania?

Uczenie federacyjne: trenowanie modelu na danych przechowywanych na wielu urządzeniach lub serwerach. Taki model uczy się bez usuwania danych z urządzenia lub tworzenia ich kopii. Można to traktować jako „dzielenie się modelem, a nie danymi” oraz tworzenie globalnego systemu, który uczy się od lokalnych.
 
Bezpieczne obliczenia wielostronne: umożliwiają wielu stronom (instytucjom czy badaczom) pracę nad danymi, których nie chcą całkowicie odsłaniać. Zaszyfrowane informacje są udostępniane między uzgodnionym zestawem osób, co umożliwia pracę na zbiorze składającym się z prywatnych danych wszystkich stron, ale bez wglądu we wrażliwe informacje.

Szyfrowanie homomorficzne, czyli przetwarzanie danych zaszyfrowanych. Umożliwiłoby to np. znalezienie danych o osobach cierpiących na artretyzm bazując na informacjach z urządzeń technologicznych do noszenia (jak np. opaski mierzące parametry organizmu), przeprowadzenie na nich obliczeń i stworzenie modelu opartego o dane całej badanej grupy, bez odszyfrowywania danych poszczególnych osób.

Zaufane środowisko wykonawcze: funkcja sprzętowa, tworząca bezpieczny obszar na urządzeniu, które może samodzielnie wykonywać określone zatwierdzone funkcje (np. nasze smartfony używają ich do uwierzytelniania biometrycznego). Można je skonfigurować do uruchamiania modeli AI na prywatnych danych bez dostępu do tych informacji przez kogokolwiek.

Prywatność różnicowa: dodaje do danych losowy szum, który „psuje” punkty danych, ale zachowuje właściwości całego zestawu. Znając typ losowości, nadal można stworzyć dokładny obraz na poziomie grupy. Ale gdyby ktoś ukradł te dane, to nie określi, czy jakikolwiek indywidualny zapis jest dokładny.

Jak technologie chroniące prywatność wyglądają w praktyce?

Metody te zaczynają być wykorzystywane coraz powszechniej w odkrywaniu leków czy choćby spisach powszechnych. Laboratorium UN PETS (technologie zwiększające prywatność) testuje szereg powyższych rozwiązań, aby umożliwić krajowym urzędom statystycznym, naukowcom i firmom współpracę w zakresie wspólnych danych. Mimo to, ścieżka nie jest prosta. Technologie chroniące prywatność wiążą się z kompromisami. Dostępne techniki często wymagają zaawansowanych obliczeń. Zasłaniając dane celem ochrony prywatności, w niektórych przypadkach tracimy dokładność. Żadna technika nie jest idealna. Zachowanie prywatności będzie wymagało kompromisów i łączenia oraz mieszania technologii dla każdego przypadku.

Technologie chroniące prywatność nie powinny być dodatkiem, ale podstawową częścią projektu. Każdy proces, który musi udostępniać prywatne dane, powinien opierać się przede wszystkim na ich ochronie. Technologie chroniące prywatność, wdrażane od pierwszych chwil, mogą pomóc przekonać klientów i znaleźć kompromis między poszanowaniem prywatności a maksymalizacją dostępu do użytecznych informacji. Technologie zwiększające prywatność, w tym różnicowa prywatność, federacyjne uczenie się i szyfrowanie homomorficzne są oczywiście trudne do wdrożenia, ale wyspecjalizowane firmy takie, jak Capgemini, pomagają klientom w tym zakresie – dodaje Edward Gołda.


Oczywistym celem jest lepsze wykorzystanie danych, które jako społeczeństwo gromadzimy. Szersze, głębsze i bardziej reprezentatywne dane pozwalają tworzyć dokładniejsze, dające się uogólnić, użyteczne modele. Te z kolei stanowią podstawę inteligentnych i spersonalizowanych produktów i usług. Wdrożenie nowych modeli może być trudne i kosztowne, ale oznacza to ochronę i poszanowanie prywatności osób, które udostępniają swoje dane, a w konsekwencji – pozwala na postęp technologiczny i budowę inteligentnych rozwiązań usprawniających życie i funkcjonowanie społeczeństwa.

Źródło: Capgemini

PRZECZYTAJ RÓWNIEŻ:


Back to top