Sztuczna inteligencja – wynalazek stwarzający wielkie możliwości dla ludzkości – ma obecnie wpływ na niemal każdy aspekt naszego życia. AI sugeruje, gdzie zjeść następny posiłek, jakie filmy warto obejrzeć w najbliższy weekend, kiedy pójść na spacer, informuje nas, że za długo siedzimy, czy też kiedy wyjść z domu, aby dotrzeć do pracy na czas.
Gdy zaś jesteśmy w biurze, AI pomaga nam określać priorytety w ciągu dnia, pisać wiadomości e-mail i uczyć się nowych umiejętności. Osobom pracującym w obszarze HR i rekrutacji AI już teraz pomaga wyszukiwać, weryfikować i oceniać kandydatów oraz planować rozmowy z nimi. Właściwie AI wspomaga pracowników w tak bezprecedensowym stopniu, że zachwyt nad jej możliwościami czasami przesłania potencjalne zagrożenie, jakie może ona stwarzać w miejscu pracy.
Jakie to zagrożenia? Niektórzy mogą postrzegać AI jako bezstronną, dobroczynną moc służącą nam wszystkim w pracy, jednak względy etyczne związane z opracowywaniem i wdrażaniem AI nie są powszechnie przestrzegane, nie mówiąc już o braku jednolitej definicji. Dla mających dobre intencje pracodawców wdrażanie automatyzacji w miejscu pracy wiąże się z ryzykiem wystąpienia niekorzystnych skutków, jeżeli nie zbadają oni dokładnie konsekwencji wdrażania AI w ich procesach. Ponadto etyczne wdrażanie AI zależy również od użytkowników i tego, w jaki sposób planują wykorzystać sztuczną inteligencję w swojej pracy.
Być może zdarzyło Ci się słyszeć o rosnących obawach związanych z wykorzystaniem AI w procesie rekrutacyjnym. Jedną z najbardziej niepokojących kwestii są potencjalne uprzedzenia wbudowane w oparte na AI technologie służące do weryfikacji, prowadzenia rozmów, oceniania i zatrudniania pracowników. Obawy te nie ograniczają się do rekrutacji. W rzeczy samej poziom obaw związanych ze sprawiedliwym rozwojem AI skłonił kilkunastu członków Organizacji Współpracy Gospodarczej i Rozwoju (Organisation for Economic Co-operation and Development, OECD) do przyjęcia standardów międzynarodowych w celu zagwarantowania, że systemy AI są sprawiedliwe, bezpieczne, godne zaufania i niezawodne.
Jak powiedział Sekretarz Generalny OECD Angel Gurría, ogłaszając w tym roku przyjęcie standardów, AI zmienia społeczeństwo, „stwarza nowe wyzwania oraz budzi niepokój i wątpliwości natury etycznej”. W ramach globalnego dążenia do uspokojenia obaw i wątpliwości OECD przedstawiła działania, jakie muszą podjąć rządy na całym świecie w celu wypracowania bardziej kompleksowej strategii na rzecz opracowywania sprawiedliwych i przejrzystych systemów AI.
Chociaż są to nieustające wysiłki, to jak na ironię, coraz więcej firm zaprzęga AI do pomocy im w zminimalizowaniu uprzedzeń w procesach rekrutacyjnych. Większość organizacji ma świadomość, że uprzedzenia mogą pojawić się na praktycznie każdym etapie rekrutacji. Nieważne, czy chodzi o to, jak skonstruowane są opisy stanowisk, w jaki sposób prowadzone są rozmowy kwalifikacyjne, czy też jaki jest przebieg procesu weryfikacji wniosków i CV – nieświadome i jawne uprzedzenia mogą przejawiać się na wiele sposobów. Obecnie AI służy do maskowania głosu i wyglądu osób poszukujących pracy oraz pomaga firmom opracowywać bardziej inkluzywne ogłoszenia o pracę i poszerzać pozyskaną bazę kandydatów w celu zwiększenia jej różnorodności.
Chociaż AI może pomóc przedsiębiorstwom minimalizować uprzedzenia, to używane w tym celu algorytmy również mogą być z natury uprzedzone. Meredith Whittaker, współzałożycielka AI Now Institute, podkreśla, że „AI nie jest bezstronna ani neutralna. W przypadku systemów służących do automatyzacji wyszukiwania i zatrudniania kandydatów musimy zadać sobie pytanie: Jakie założenia dotyczące wartości, umiejętności i potencjału są odzwierciedlane i powielane przez te systemy? Kto podejmował decyzje w momencie kodowania tych założeń?”.
Jedną z najważniejszych kwestii jest zapewnienie, że dane wykorzystywane przez systemy AI są odpowiednio zarządzane, ponieważ mogą one być główną przyczyną tworzenia uprzedzonych algorytmów. Niezmiernie ważne jest, aby przy gromadzeniu danych firmy kierowały się inkluzywnością mierzoną poprzez oznaczanie informacji oraz aby podejmowanie decyzji dotyczących danych i określanie, które wskaźniki będą wykorzystywane do tworzenia AI, zlecały różnorodnemu zespołowi. To tylko niektóre działania służące stworzeniu bardziej etycznego i sprawiedliwego systemu opartego na AI.
Obecnie narzędzia służące do minimalizowania uprzedzeń są oferowane przez wielu twórców rozwiązań HR, zatem wybór odpowiednich narzędzi do wdrożenia w działaniach rekrutacyjnych może stanowić wyzwanie dla pracodawców. Poza tym jak przedsiębiorstwo może zagwarantować, że wybrany przez nie system AI rozwiąże problem uprzedzeń wobec określonej grupy, na przykład problem nierówności płci wśród personelu? Jak na ironię, zdaniem Fridy Polli, dyrektor wykonawczej firmy pymetrics produkującej technologię oceniającą opartą na AI, odpowiedzią na pytanie o korygowanie uprzedzeń wbudowanych w algorytmy mogą być…algorytmy.
Wyjaśniła ona, że jeżeli firma uświadomi sobie, iż wynikiem korzystania z jej systemów rekrutacyjnych opartych na AI jest na przykład zatrudnianie mniejszej liczby kobiet, algorytmy można wówczas zmodyfikować tak, aby brały pod uwagę uprzedzenia w pozyskiwaniu albo ocenach. Ważną kwestią jest to, czy dostęp do tych algorytmów powinien być otwarty, aby proces ich opracowywania był przejrzysty.
Dokonywanie pomiarów pod kątem uprzedzeń i minimalizowanie ich stanowi ważny aspekt etyczny AI, ponieważ jest to fundament odpowiedzialnego korzystania z technologii do celów rekrutacyjnych. Kluczowe jest jednak również, aby wziąć pod uwagę szersze względy etyczne dotyczące AI, takie jak te opracowane przez Institute for Ethical AI & Machine Learning, które obejmują świadomość ryzyka związanego z danymi oraz wątpliwości dotyczące ochrony prywatności. Twoja firma może również rozważyć opracowanie własnych zasad dotyczących AI i stworzyć komisję etyczną ds. AI, aby zapewnić, że zasady te będą konsekwentnie przestrzegane.
Koncepcje leżące u podstaw tych zasad nie są nowe, ale w miarę jak coraz więcej firm wdraża systemy AI w celu udoskonalenia swoich procesów rekrutacyjnych, liderzy HR powinni zawsze mieć na uwadze możliwe konsekwencje wdrażania tego rodzaju technologii w miejscu pracy. Niezależnie od tego, czy łagodzą obawy związane z redukcją zatrudnienia poprzez podnoszenie bądź zmianę kwalifikacji, czy też podejmują dodatkowe działania w celu ochrony prywatności pracowników i kandydatów, nie można wdrażać AI, kierując się ślepą wiarą. Należy zawsze mieć strategię i plan działania w celu zapewnienia praktycznego i etycznego wykorzystania technologii używanych obecnie i w przyszłości.