AI Act: jak bezpiecznie stosować sztuczną inteligencję w rekrutacji?
2025-08-21 08:32
Sztuczna inteligencja w rekrutacji © Freepik
Przeczytaj także: Korzystasz z AI w pracy? Od 2 sierpnia 2025 czekają cię ważne zmiany i możliwe kary
Z tego tekstu dowiesz się m.in.:
- Czym jest AI Act i czego zabrania w obszarze HR?
- Dlaczego nawet pozornie neutralne funkcje AI mogą rodzić ryzyko naruszeń?
- Jakie obowiązki informacyjne wobec kandydatów nakładają nowe przepisy?
- W jaki sposób firmy mogą bezpiecznie wdrażać AI w procesach rekrutacyjnych?
Zakazane, czyli jakie?
AI Act, obowiązujące od lutego 2025 roku, zakazuje m.in. manipulowania decyzjami użytkowników w sposób podprogowy lub nieświadomy, wykorzystywania podatności grup społecznych znajdujących się w trudnej sytuacji, a także scoringu społecznego – czyli oceniania ludzi na podstawie ich cech osobistych czy zachowań. Na liście znajdują się również takie praktyki, jak profilowanie w celu przewidywania ryzyka popełnienia przestępstwa, rozpoznawanie emocji czy kategoryzacja biometryczna.
Co istotne, jak podkreślają autorzy unijnych wytycznych, nie zawsze potrzebne jest udowodnienie szkody – wystarczy, że system AI generuje ryzyko pogorszenia sytuacji danej osoby, np. zdrowotnej, społecznej czy finansowej.
AI Act nie zostawia złudzeń: niektóre zastosowania AI są niezgodne z podstawowymi wartościami Unii Europejskiej, jak prawo do autonomii, prywatności czy równego traktowania. Z punktu widzenia HR zagrożeniem nie są tylko skrajne przypadki, jak analiza mimiki czy tonu głosu pracownika. Równie niebezpieczne mogą być mniej oczywiste działania – na przykład targetowanie ofert pracy wyłącznie do osób z grup o słabszej pozycji społecznej – mówi Katarzyna Trzaska, ekspertka eRecruiter.
Praktyka nie czyni bezpiecznym
Eksperci podkreślają, że kluczowe jest precyzyjne zdefiniowanie, czym są cechy osobiste, dane wrażliwe czy klasyfikacje wpływające na procesy decyzyjne w rekrutacji. Jeśli algorytm zaczyna w nieuprawniony sposób wykorzystywać tego typu informacje, to nawet funkcje, które na pierwszy rzut oka wydają się neutralne – jak generowanie ogłoszeń, tagowanie CV czy rekomendacje kandydatów – mogą wiązać się z ryzykiem naruszenia zasad etycznych lub prawnych. Dlatego tak ważne jest, by projektując i wdrażając rozwiązania AI, świadomie kontrolować, jakie dane są uwzględniane w procesie analizy i podejmowania decyzji.
W eRecruiter myślenie o rozwoju funkcji AI nigdy nie zasłaniało nam aspektów prawnych związanych z użyciem sztucznej inteligencji. Nasze narzędzia AI – od preselekcji po generowanie pytań rekrutacyjnych – wspierają pracę rekrutera, ale go nie zastępują. System nie analizuje emocji, nie wykorzystuje danych biometrycznych ani nie klasyfikuje kandydatów na podstawie cech osobowości. To człowiek ma ostatnie słowo – i to jest fundamentalna różnica – tłumaczy Konrad Szczygieł, Head of Marketplace w eRecruiter.
Informować to chronić – także siebie
AI Act wprowadza obowiązek informowania kandydatów o wykorzystaniu sztucznej inteligencji w procesach rekrutacyjnych. To wymóg prawny, ale też praktyczne narzędzie minimalizujące ryzyko nieporozumień i odpowiedzialności po stronie pracodawcy. Przejrzystość w komunikacji, wskazanie roli człowieka w podejmowaniu decyzji i jasne opisanie funkcji narzędzi AI może uchronić firmę przed zarzutami o nieetyczne lub niezgodne z prawem działania.
Transparentność to nie tylko wymóg przepisów. To realne zabezpieczenie firmy przed zarzutami o nieetyczne działania. Jeśli kandydat wie, na czym polega rola AI w procesie, a decyzje podejmuje człowiek – ograniczamy ryzyko nieporozumień i zwiększamy zaufanie. A to również przekłada się na wizerunek pracodawcy – dodaje Katarzyna Trzaska.
AI z głową – czyli jak korzystać, by nie narazić się na sankcje
AI Act nie zakazuje stosowania sztucznej inteligencji w HR – przeciwnie, zakłada jej dalszy rozwój, ale na zasadach odpowiedzialności i zgodności z prawem. Przed wdrożeniem rozwiązania opartego na AI warto jednak zadać dostawcy kluczowe pytania: jakie decyzje podejmuje system, na jakich danych operuje i czy spełnia kryteria określone przez unijne przepisy.
Odpowiedzialność nie kończy się na dostawcy technologii. To użytkownik, czyli firma wdrażająca AI, musi znać granice i ocenić ryzyka. Świadome korzystanie z AI to już nie tylko dobra praktyka. To obowiązek – podsumowuje Konrad Szczygieł.
oprac. : Aleksandra Baranowska-Skimina / eGospodarka.pl
Przeczytaj także
Skomentuj artykuł Opcja dostępna dla zalogowanych użytkowników - ZALOGUJ SIĘ / ZAREJESTRUJ SIĘ
Komentarze (0)
Najnowsze w dziale Praca
-
Gdzie w Polsce płace rosną najszybciej? Oto branże z największymi podwyżkami
-
Płatny uzupełniający urlop macierzyński nie tylko dla rodziców wcześniaków. Kto może skorzystać i jakie są zasady?
-
Siła wyższa i nieobecność w pracy. Co z pracą i pensją, gdy nie można wrócić z urlopu?
-
Freelancing w Polsce: które branże najbardziej dochodowe dla wolnego strzelca?


Od ticketów do pełnych rozwiązań: jak agentic AI zmienia HR i doświadczenia pracowników


Pożyczki na bardzo wysoki procent
