63% pracowników branży oprogramowania używa nieautoryzowanych narzędzi AI
Raport Capgemini – Turbocharging software with generative AI: How organizations can realize the full potential of generative AI for software engineering – pokazuje, że aż 63% pracowników branży oprogramowania używa narzędzi AI nieautoryzowanych przez ich organizację. Takie działania, bez właściwego nadzoru, programu szkoleniowego dla pracowników i odpowiedniego zarządzania, narażają firmy na konsekwencje prawne i cyberzagrożenia.


 REKLAMA 
 Wdrażasz KSeF w firmie 
 
Korzystanie z narzędzi AI bez odpowiedniego szkolenia i zabezpieczeń naraża organizacje na liczne ryzyka. Osoby zarządzające nimi deklarują, że główne obawy przed wdrażaniem w organizacji rozwiązań AI wiążą się z obszarem prawnym, poprawnością generowanych danych, np. kodu, i cyberbezpieczeństwem. Każde z tych ryzyk jest wielokrotnie większe, jeśli pracownicy na własną rękę dobierają narzędzia pracy oparte na AI.

Poprawność kodu generowanego przez narzędzia AI jest tym większa, im więcej „wskazówek” tym narzędziom dostarczymy. Na przykład, jeśli narzędzia mają informacje o kodzie napisanym wcześniej, dokumentacji biznesowej systemu, nad którym pracujemy, jego architekturze, konwencji kodowania czy użytych bibliotek, to może się okazać, że nie będą konieczne dalsze modyfikacje wygenerowanego kodu, a nawet przejdzie on testy jakościowe w środowisku ciągłej integracji. Jest jednak druga strona medalu: potencjalny wyciek tych „wskazówek” może narazić rozwijany system na cyberataki, ujawnić tajemnicę biznesową, w tym kod, konkurencji. Kolejnym wyzwaniem jest fakt, że modele GenAI są trenowane na danych, których użycie jest regulowane przez licencje albo objętych prawami autorskimi. Dlatego wygenerowany kod musi zostać sprawdzony pod tym kątem.

Źródłem tak powszechnego problemu z wykorzystywaniem nieautoryzowanych narzędzi może być fakt, że osoby pracujące w branży IT zbyt często muszą polegać na samodzielnym szkoleniu w zakresie GenAI. Tylko dwie na pięć organizacji aktywnie prowadzi działania na rzecz podnoszenia kwalifikacji zespołów. Specjaliści i specjalistki zajmujący się tworzeniem oprogramowania sami dbają o swój rozwój w tym zakresie. Nie więcej niż 40% z nich jest szkolonych przez swojego pracodawcę. Aby skutecznie minimalizować ryzyko związane z nieautoryzowanym korzystaniem z narzędzi AI, firmy powinny zacząć od ustanowienia przejrzystych zasad. Wytyczne te muszą szczegółowo określać zakres i sposób użycia autoryzowanych narzędzi korzystających z generatywnej sztucznej inteligencji, zapewniając, że wszystkie osoby zatrudnione są świadome granic i konsekwencji ich przekroczenia. Kluczowe jest wprowadzenie regularnych programów szkoleniowych, które edukują na temat ryzyka związanego z niezatwierdzonymi narzędziami oraz podkreślają znaczenie przestrzegania polityk firmy. Dodatkowo organizacje powinny wdrożyć zaawansowane systemy monitorowania, które będą śledzić użycie narzędzi i szybko identyfikować wszelkie przypadki ich nieautoryzowanego użycia. Innym rozwiązaniem jest udostępnienie pracownikom dedykowanych modeli, chmurowych bądź on-premise, oraz kontrola tego dostępu poprzez klucze.

Kształtowanie kultury odpowiedzialności w organizacji jest nie mniej ważne niż techniczne zabezpieczenia. Przekazanie zakupu narzędzi AI do centralnych działów zakupów pozwala na korzystanie wyłącznie z zatwierdzonych rozwiązań. Także regularne audyty i oceny ryzyka są kluczowe do identyfikacji potencjalnych luk oraz zapewnienia zgodności z wewnętrznymi politykami. Kluczowe wydaje się również tworzenie oferty szkoleniowej, która pozwoli specjalistom i specjalistkom rozwijać się w ramach organizacji i uczyć się jak maksymalizować wartość dodaną narzędzi, które zostały wyznaczone jako bezpieczne dla firmy. Takie podejście nie tylko zabezpiecza firmę przed ryzykiem, ale także umożliwia pełne wykorzystanie potencjału generatywnej AI w sposób bezpieczny i zgodny z przepisami.

Autor: Marek Matczak, CTO w Software Center, Capgemini Polska

PRZECZYTAJ RÓWNIEŻ:


Back to top