Kiedy na scenę wkracza technologia o tak dużym znaczeniu, jak AI, ważne jest, aby firma zajęła w tej sprawie stanowisko. Sztuczna inteligencja może zmienić sposób, w jaki Twoi pracownicy pracują i wprowadzają innowacje, i prawdopodobnie jest już szeroko stosowana w Twojej firmie – być może nawet nie zdajesz sobie z tego sprawy. Lista korzyści jest długa, ale korzystanie z  sztucznej inteligencji nie jest pozbawione ryzyka. Dzięki opracowaniu polityki firmy regulującej korzystanie z AI można zacząć w pełni wykorzystywać potencjał tej technologii, jednocześnie minimalizując jej potencjalne wady.

W tym artykule omówimy niektóre z kluczowych zagrożeń związanych z AI oraz to, w jaki sposób polityka może pomóc je zmniejszyć i jak proces tworzenia polityki może faktycznie wyglądać w Twojej firmie. Artykuł nie stanowi porady prawnej, ale opiera się na naszych własnych doświadczeniach z narzędziami generatywnej sztucznej inteligencji i mamy nadzieję, że zapewni podstawę do dalszych badań.

illustration

pobierz szablon polityki w zakresie AI i zacznij tworzyć własną.

pobierz szablon

dlaczego warto opracować politykę w zakresie generatywnej sztucznej inteligencji?

W Twojej firmie powinna obowiązywać polityka w zakresie AI z tego samego powodu, dla którego obowiązują w niej wszystkie inne zasady – aby zachować zgodność z przepisami, zapewnić pracownikom wytyczne w ich pracy i usprawnić codzienne operacje. 

Narzędzia AI, które mogą generować treści tekstowe, graficzne, dźwiękowe, a nawet wideo na podstawie kilku prostych poleceń, mają atrakcyjne zastosowania w całej firmie. Biorąc pod uwagę zakres dostępnych narzędzi i tempo ich rozwoju, Twoja firma może zostać w tyle za konkurencją, jeśli nie zacznie sprawdzać, w jaki sposób może z nich skorzystać.

Aby jednak pracownicy mogli to sprawdzać, a firma mogła uniknąć dobrze znanych zagrożeń związanych z AI, należy wdrożyć odpowiednią politykę. To pokazuje, że firma poświęciła czas na zastanowienie się nad konsekwencjami korzystania z zasobów AI i zapewnia pracownikom jasne zasady, których należy się trzymać podczas eksperymentowania.

Przyjrzyjmy się niektórym z kluczowych zagrożeń, które polityka w zakresie AI powinna próbować ograniczyć.

ryzyko związane z korzystaniem z AI.

nierówne traktowanie, stronniczość i nieetyczne postępowanie jako skutki korzystania z narzędzi sztucznej inteligencji

Narzędzia AI są na tyle obiektywne, na ile obiektywne są dane, na których są one „szkolone”. Jeśli zbiory danych używane przez narzędzie do tworzenia treści są stronnicze, wyniki uzyskane przez narzędzie również takie będą. Wyobraźmy sobie na przykład narzędzie AI zaprojektowane do generowania opisów stanowisk pracy na podstawie zaledwie kilku podstawowych informacji dotyczących danego stanowiska. Jeśli to narzędzie zostało przeszkolone na tysiącach opisów stanowisk, które zawierają nieinkluzywny język, to wygenerowane przez nie opisy stanowisk też takie będą. W ten sposób narzędzia sztucznej inteligencji mogą łatwo powielać uprzedzenia swoich twórców lub użytkowników. 

Główni twórcy sztucznej inteligencji podejmują działania w celu zapobiegania stronniczości w swoich narzędziach, ale całkowite jej wyeliminowanie jest bardzo trudne. Polityka w zakresie AI powinna uwzględniać to ograniczenie i określać środki mające na celu jego przezwyciężenie – na przykład poprzez zalecenie, aby wszystkie treści generowane przez sztuczną inteligencję były dokładnie sprawdzane przez człowieka pod kątem stronniczości i równego traktowania przed ich opublikowaniem lub rozpowszechnieniem.

Womale putting away files while sitting at her desk in her home office.
Womale putting away files while sitting at her desk in her home office.

naruszenia praw własności intelektualnej

Ryzyko to wynika również ze sposobu tworzenia generatywnych modeli sztucznej inteligencji. Korzystając z milionów fragmentów obrazów, muzyki, materiałów wideo i danych tekstowych, na których narzędzia się uczą, mogą one tworzyć całkowicie unikalne dzieła – istnieje jednak ryzyko, że do wygenerowanej treści trafią znaczące elementy danych wykorzystanych do szkolenia systemu, co potencjalnie może prowadzić do naruszenia praw własności intelektualnej.

Trwa debata na temat tego, czy treści generowane przez sztuczną inteligencję naruszają prawa ich twórców, a niektóre organizacje domagają się, aby twórcy musieli wyrazić zgodę, zanim ich dzieła będą mogły zostać wykorzystane do trenowania modeli sztucznej inteligencji. Inni producenci oprogramowania koncentrują się na „bezpiecznych do użytku komercyjnego” narzędzi AI, które uczą się tylko na w pełni licencjonowanych treściach. Kwestia tego, czy treści generowane przez sztuczną inteligencję mogą być objęte prawami autorskimi różni się w zależności od jurysdykcji, ale odpowiedź na to pytanie jest ważna dla firm rozważających wykorzystanie tego rodzaju treści w swoich komunikatach.

Decyzje prawne odzwierciedlane w polityce w zakresie generatywnej sztucznej inteligencji będą się różnić, ale polityka powinna mieć na celu zmniejszenie ryzyka naruszeń praw własności intelektualnej – potencjalnie poprzez zalecenie, aby treści generowane przez sztuczną inteligencję nie mogły być wykorzystywane w komunikacji zewnętrznej firmy.

prywatność danych

Prywatność danych udostępnianych narzędziom AI była tematem dyskusji od momentu ich pojawienia się na rynku. Wiadomo, że jednym z powodów, dla których wiele z tych modeli sztucznej inteligencji tak szybko się ulepsza, jest fakt, że wykorzystują one informacje zwrotne i dane wejściowe od użytkowników, aby dopracować swoje odpowiedzi i poszerzyć swoją wiedzę.

Wyobraźmy sobie jednak przypadek, w którym specjalista ds. HR przekazuje wrażliwe dane zawodowe dotyczące listy kandydatów do pracy chatbotowi AI i prosi go o pogrupowanie ich w kategorie na podstawie ich poziomu doświadczenia. Niektórzy eksperci ds. bezpieczeństwa ostrzegają, że jeśli chatbot wykorzystuje dane wejściowe użytkownika w celu poprawy dokładności swoich odpowiedzi, istnieje ryzyko, że te wrażliwe dane mogą zostać ujawnione innym użytkownikom, którzy wiedzą, jak zadawać właściwe pytania.

Jest to skrajny przypadek, ale ilustruje niektóre z pytań dotyczących generatywnej sztucznej inteligencji i prywatności danych, na które nie ma odpowiedzi. Wiele narzędzi sztucznej inteligencji wyraźnie stwierdza, że nie ujawnia żadnych danych wejściowych innym użytkownikom – ale nie jest to uniwersalna polityka.

Ochrona prywatności powinna być kluczową częścią polityki w zakresie AI. Twoja firma musi określić szczegóły, ale dobrym początkiem może być zalecenie, aby żadne dane dotyczące osób fizycznych lub działalności biznesowej nie były przekazywane narzędziom AI w poleceniach.

Oprócz tych zagrożeń, polityka powinna również uwzględniać ogólne ryzyko związane z bezpieczeństwem i zgodnością z przepisami wynikające z korzystania z dowolnego narzędzia innej firmy do celów biznesowych, a także ryzyko szkody dla reputacji wynikające z przypadkowego naruszenia praw własności intelektualnej, wycieków danych lub tworzenia stronniczych treści.

illustration

pobierz szablon polityki w zakresie AI i zacznij tworzyć własną.

pobierz szablon

tworzenie firmowej polityki w zakresie generatywnej sztucznej inteligencji

zgromadzenie ekspertów

Oprócz kwestii prawnych i związanych z ochroną prywatności, opracowanie skutecznej polityki w zakresie AI będzie również wymagać wkładu ze strony jej użytkowników – niezależnie od tego, czy zajmują się oni marketingiem, inżynierią, HR czy sprzedażą. Będą oni mieli najlepszy wgląd w to, w jaki sposób generatywna sztuczna inteligencja jest wykorzystywana w firmie i jakie potencjalne zagrożenia związane z technologią mogą pojawić się w ich obszarach zastosowania.

rozpowszechnianie informacji

Stworzenie polityki dotyczącej AI może być trudne, ale sprawienie, aby pracownicy ją zaakceptowali, jest jeszcze większym wyzwaniem. Na szczęście większość badań i raportów pokazuje, że pracownicy na całym świecie są entuzjastycznie nastawieni do potencjału sztucznej inteligencji w miejscu pracy – więc wdrożenie polityki poprzez skuteczną komunikację wewnętrzną, szkolenia i dyskusje może być łatwiejsze niż myślisz. Jak w przypadku każdej polityki, egzekwowanie jej za pośrednictwem zwykłych kanałów jest ważne – ale lepiej jest przede wszystkim zapobiegać naruszeniom poprzez angażowanie pracowników w prace związane z polityką i generatywną sztuczną inteligencją.

zapewnienie przestrzeni na innowacje

Polityka jest kluczowym narzędziem ochrony przed potencjalnymi zagrożeniami związanymi z AI. Nie powinny być one jednak tak rygorystyczne, że będą niepotrzebnie utrudniać korzystanie z narzędzi AI. Generatywna sztuczna inteligencja ma ogromny potencjał w całej firmie, więc zniechęcanie pracowników do korzystania z niej za pomocą zbyt restrykcyjnej polityki nie byłoby dobrym pomysłem. Zamiast tego przy opracowywaniu polityki należy skupić się na zapobieganiu najpoważniejszym zagrożeniom, a także wykorzystać szkolenia i komunikaty, aby pokazać pracownikom, jak ważne jest odpowiedzialne korzystanie ze sztucznej inteligencji.

ile czasu zajmuje stworzenie polityki w zakresie generatywnej sztucznej inteligencji?

Polityka w zakresie sztucznej inteligencji nie musi być szczególnie długa, aby była skuteczna, ale czas jej tworzenia zależy całkowicie od charakteru organizacji. Liczba osób zaangażowanych w proces, wrażliwość zastosowań sztucznej inteligencji i wielkość organizacji będą miały na to wpływ.

Możliwe jest jednak przyspieszenie tego procesu poprzez skorzystanie z szablonu polityki w zakresie sztucznej inteligencji. Pobierz nasz szablon, aby uzyskać sugestie dotyczące podstawowej struktury polityki wraz z poradami i wskazówkami dotyczącymi tego, co należy wziąć pod uwagę podczas procesu tworzenia polityki. To świetny punkt wyjścia, jeśli Twoja firma chce zacząć poważnie traktować generatywną sztuczną inteligencję.

o autorze
randstad polska
randstad polska

Zespół Randstad Polska

lider branży hr

bądź na bieżąco z najnowszymi wiadomościami, trendami i raportami dotyczącymi rekrutacji i rynku pracy.

zapisz się