Bardzo intensywny i dynamiczny rozwój sztucznej inteligencji (AI), który możemy zaobserwować przez ostatnie lata, przyniósł firmom wiele nowych możliwości w kwestii sięgania po innowacje. Jednak równie szybko, jak ewoluują technologie sztucznej inteligencji, pojawiają się pytania i dylematy dotyczące jej wpływu na gospodarkę, społeczeństwo czy rynek pracy, ponieważ AI zaczyna odgrywać coraz bardziej znaczącą rolę w procesach produkcyjnych, marketingowych czy rekrutacyjnych. Dlatego właśnie coraz więcej państw na świecie decyduje się wprowadzać regulacje prawne dotyczące użycia i dalszego rozwoju rozwiązań opartych na AI. Takie przepisy wydają się być potrzebne z kilku powodów. Między innymi po to, by zapewnić użytkownikom odpowiedni poziom bezpieczeństwa, zapobiegać nadużyciom, zapewnić transparentność nowych rozwiązań i zyskać pewność, że systemy AI są projektowane i wdrażane w sposób etyczny i zgodny z obowiązującym już prawem. Jak udaje się to osiągnąć?
Przyjrzyjmy się bliżej niektórym rozwiązaniom w zakresie prawnego podejścia do AI – między innymi z perspektywy HR.
jak Europa reguluje dziś kwestie związane z AI.
Europę można dziś uznać za pioniera w pracach legislacyjnych dotyczących etycznego, przejrzystego i bezpiecznego rozwoju, wdrażania oraz wykorzystywania AI. Najintensywniejsze i najbardziej znaczące prace w tym kierunku toczą się w ramach struktur Unii Europejskiej.
Najważniejszym obecnie unijnym dokumentem związanym z rozwojem sztucznej inteligencji jest Akt w sprawie sztucznej inteligencji (ang. AI Act), który zaproponowała w 2021 roku Komisja Europejska.13 marca 2024 Parlament Europejski przyjął rozporządzenie w sprawie sztucznej inteligencji.
Unijny akt o sztucznej inteligencji stanowi pierwszą próbę kompleksowego uregulowania tej technologii na dużą skalę. Dokument klasyfikuje systemy AI, które są sprzedawane, oferowane lub wprowadzane do użytku na rynku UE, według poziomu ryzyka wiążącego się z ich zastosowaniem. Są to 4 kategorie:
- ryzyko niedopuszczalne. To m.in. poznawczo behawioralna manipulacja ludźmi (np. zabawki aktywowane głosem, które zachęcają dzieci do niebezpiecznych zachowań), systemy identyfikacji i kategoryzacji biometrycznej (np. rozpoznawanie twarzy w czasie rzeczywistym), manipulacji podprogowej czy scoringu społecznego (np. klasyfikacji punktowej ludzi na podstawie ich cech osobistych);
- ryzyko wysokie. To wykorzystanie AI, które może godzić w prawa podstawowe człowiek, np. w rekrutacji i zatrudnieniu, ściganiu przestępstw, sprawach związanych z migracją, edukacją, finansami i ubezpieczeniach czy w stosowaniu i interpretacji prawa;
- ryzyko średnie. To, m.in. deepfake’i, ChatGPT, czy komunikacja z chatbotami;
- ryzyko minimalne. To m.in. filtry antyspamowe.
Zależnie od tego, jaką kategorię otrzyma dany system, UE przewiduje trzy strategie działania. System może zostać zabroniony w Unii, mogą na niego zostać nałożone dodatkowe wymagania lub też użytkownicy korzystający z niego będą musieli zostać poinformowani o tym, że wchodzą w interakcję z AI.
Nadchodząca zmiana jest ważna również z perspektywy procesów HR-owych w przedsiębiorstwach. Oznacza ona bowiem, że w momencie wejścia w życie ustawy niektóre systemy AI wykorzystywane w rekrutacji – takie jak np. narzędzia do automatycznej selekcji kandydatów – mogą zostać zaklasyfikowane jako rozwiązania o wysokim ryzyku, a w efekcie nawet zablokowane. Choć szczegóły nie są jeszcze znane, możemy się spodziewać, że wykorzystywanie AI w rekrutacji będzie obwarowane rygorystycznymi zasadami, takimi jak np. konieczność rejestrowania takich działań i prowadzenia szczegółowej dokumentacji oraz kładzenia dużego nacisku na nadzór człowieka nad procesem.
USA bez jednolitych regulacji AI.
W Stanach Zjednoczonych regulacje dotyczące wykorzystania sztucznej inteligencji wciąż ewoluują. Własne inicjatywy ustawodawcze w tym obszarze podejmuje zarówno rząd federalny, jak i władze poszczególnych stanów. Co ciekawe, rząd federalny często stosuje tu podejście sektorowe, koncentrując się na zastosowaniach AI w konkretnych branżach i celach. Na przykład, w maju 2023 roku The Equal Employment Opportunity Commission (EEOC) wydała wytyczne dotyczące użycia narzędzi AI w procesach rekrutacyjnych. Wg tych wytycznych pracodawcy muszą upewnić się m.in., że użycie narzędzi AI w rekrutacji nie prowadzi do dyskryminacji ze względu na pochodzenie, płeć, wyznanie czy kolor skóry kandydatów.
Z kolei w lutym 2023 National Institute of Standards and Technology (NIST) przedstawił Ramowe wytyczne dotyczące zarządzania ryzykiem AI. Wytyczne te nie są wiążące, jednak mają na celu pomóc organizacjom lepiej zarządzać zagrożeniami wiążącymi się z wykorzystywaniem narzędzi opartych na AI. Dokument wskazuje cechy, którymi powinny odznaczać się godne zaufania systemy sztucznej inteligencji: bezpieczeństwo, wyjaśnialność, ochrona prywatności, uczciwość, odpowiedzialność i rzetelność.
Ważnym krokiem w kierunku powstania dalszych regulacji dotyczących bezpiecznego i rzetelnego rozwoju AI w Stanach Zjednoczonych jest Rozporządzenie Wykonawcze prezydenta Bidena, wydane w październiku 2023 roku. Jedną z wytycznych ujętych w tym Zarządzeniu jest wezwanie do opracowania standardów uwierzytelniania treści i wykorzystania zaawansowanych narzędzi cyberbezpieczeństwa w kontekście AI. Podkreśla ono również znaczenie ochrony prywatności, promowania równości i praw obywatelskich oraz wspierania pracowników w obliczu zmian napędzanych sztuczną inteligencją.
interesujące podejścia do kwestii AI w innych zakątkach świata.
Nie tylko Europa i USA podejmują dziś wysiłki, by prawnie uregulować najważniejsze kwestie związane z AI. Takie działania widzimy dziś także w innych stronach świata.
Na przykład sposób na regulacje związane z AI przyjęty w Japonii można określić jako sztukę balansowania pomiędzy dwoma podejściami. W przeciwieństwie do Unii Europejskiej, która przyjęła bardziej rygorystyczne przepisy, Japonia preferuje łagodniejsze regulacje i dąży do osiągnięcia równowagi pomiędzy wsparciem innowacji a ochroną bezpieczeństwa i prywatności swoich obywateli.
Z kolei Australijska Komisja Praw Człowieka (AHRC) zwróciła niedawno uwagę, że stosowanie na coraz większą skalę narzędzi opartych na sztucznej inteligencji może wkrótce stanowić zagrożenie dla praw człowieka – zwłaszcza w przypadkach, w których AI jest wykorzystywana wspólnie z rozwiązaniami z obszaru neurotechnologii, rozszerzonej rzeczywistości czy metawersum. I choć Australia posiada już kilka aktów prawnych regulujących wykorzystanie sztucznej inteligencji w określonych warunkach lub okolicznościach, Komisja opowiedziała się za natychmiastowymi działaniami regulacyjnymi, by zabezpieczyć prawa obywateli tego kraju.
nie tylko regulacje na poziomie państwowym.
Aby nowe przepisy i wytyczne dotyczące wykorzystania AI w biznesie odniosły spodziewany skutek i realnie pomogły eliminować związane z nim niebezpieczeństwa, przypadku niewłaściwego wykorzystania i dylematy etyczne, potrzebny jest jeszcze jeden element: konkretne działania firm. Przedsiębiorstwa powinny rozważać już dziś nie tylko wdrażanie wytycznych władz państwowych w zakresie zgodnego z prawem i etycznego wykorzystania AI w biznesie, ale także opracowywać i wprowadzać własne regulacje w tym zakresie, dostosowane do otoczenia rynkowego i specyfiki działania.
W Randstad już w 2019 roku opublikowaliśmy nasze zasady dotyczące AI. Są one uzupełnieniem naszych podstawowych wartości i są zgodne z naszymi zasadami biznesowymi. Określają aspiracje Randstad w tym zakresie oraz definiują nasze zaangażowanie w odpowiedzialne korzystanie z AI. Traktujemy je jako żywy dokument, który będziemy modyfikować w miarę rozwoju technologii AI. Według tych zasad prowadzimy regularne audyty naszych rozwiązań wykorzystujących sztuczną inteligencję, testujemy je pod kątem stronniczości oraz etycznej analizy danych. Działamy również w World Employment Confederation — organizacji skupiającej liderów branży HR. W ramach tego członkostwa uczestniczymy w pracach nad zestawem uniwersalnych zasad, którymi powinny kierować się firmy z branży HR, wdrażając narzędzia oparte na AI. U podstaw tych zasad leżą m.in.: potrzeba postawienia człowieka w centrum uwagi, równość, sprawiedliwość, brak dyskryminacji, różnorodność, inkluzywność, prywatność oraz zapewnienie wyjaśnialności i przejrzystości algorytmów wykorzystywanych do podejmowania decyzji rekrutacyjnych.
Biorąc pod uwagę ewoluujący charakter AI, zasady te będą z czasem dostosowywane do zmieniających się okoliczności. Podobnego podejścia warto oczekiwać od prawodawców, ponieważ szybki rozwój technologii sprawia, że prawo często nie nadąża za najnowszymi rozwiązaniami. A to wymaga zarówno od rządów, jak i przedsiębiorców ciągłego trzymania ręki na pulsie i bardzo sprawnego reagowania na każdą zmianę.
dowiedz się więcej.
sprawdź, w jaki sposób sztuczna inteligencja kształtuje dzisiejszy rynek pracy, jak w odpowiedzialny i etyczny sposób korzystać z AI w procesach HR-owych oraz w jaki sposób Randstad dba o to, by sztuczna inteligencja wspierała tworzenie zrównoważonego i odpowiedzialnego środowiska pracy. Zajrzyj do najnowszego raportu Randstad „Rynek pracy i AI. Powód do obaw czy szansa?”.