eGospodarka.pl
eGospodarka.pl poleca

PracaPorady dla pracownikaAI Act: jak bezpiecznie stosować sztuczną inteligencję w rekrutacji?

AI Act: jak bezpiecznie stosować sztuczną inteligencję w rekrutacji?

2025-08-21 08:32

AI Act: jak bezpiecznie stosować sztuczną inteligencję w rekrutacji?

Sztuczna inteligencja w rekrutacji © Freepik

Czy generowanie ofert pracy lub analiza CV mogą narazić firmę na poważne konsekwencje? Odpowiedź na tak postawione pytanie to: "tak". Nowe przepisy AI Act pokazują, że nie każdy sposób wykorzystania sztucznej inteligencji w HR jest dozwolony. Ryzyko naruszenia prawa pojawia się m.in. w sytuacji, gdy algorytm oceni kandydatów na podstawie ich cech osobistych. Jak zatem korzystać z AI w rekrutacji, by wspierała procesy, zamiast stanowić zagrożenie?

Przeczytaj także: Korzystasz z AI w pracy? Od 2 sierpnia 2025 czekają cię ważne zmiany i możliwe kary

Z tego tekstu dowiesz się m.in.:


  • Czym jest AI Act i czego zabrania w obszarze HR?
  • Dlaczego nawet pozornie neutralne funkcje AI mogą rodzić ryzyko naruszeń?
  • Jakie obowiązki informacyjne wobec kandydatów nakładają nowe przepisy?
  • W jaki sposób firmy mogą bezpiecznie wdrażać AI w procesach rekrutacyjnych?

Zakazane, czyli jakie?


AI Act, obowiązujące od lutego 2025 roku, zakazuje m.in. manipulowania decyzjami użytkowników w sposób podprogowy lub nieświadomy, wykorzystywania podatności grup społecznych znajdujących się w trudnej sytuacji, a także scoringu społecznego – czyli oceniania ludzi na podstawie ich cech osobistych czy zachowań. Na liście znajdują się również takie praktyki, jak profilowanie w celu przewidywania ryzyka popełnienia przestępstwa, rozpoznawanie emocji czy kategoryzacja biometryczna.

Co istotne, jak podkreślają autorzy unijnych wytycznych, nie zawsze potrzebne jest udowodnienie szkody – wystarczy, że system AI generuje ryzyko pogorszenia sytuacji danej osoby, np. zdrowotnej, społecznej czy finansowej.
AI Act nie zostawia złudzeń: niektóre zastosowania AI są niezgodne z podstawowymi wartościami Unii Europejskiej, jak prawo do autonomii, prywatności czy równego traktowania. Z punktu widzenia HR zagrożeniem nie są tylko skrajne przypadki, jak analiza mimiki czy tonu głosu pracownika. Równie niebezpieczne mogą być mniej oczywiste działania – na przykład targetowanie ofert pracy wyłącznie do osób z grup o słabszej pozycji społecznej – mówi Katarzyna Trzaska, ekspertka eRecruiter.

Praktyka nie czyni bezpiecznym


Eksperci podkreślają, że kluczowe jest precyzyjne zdefiniowanie, czym są cechy osobiste, dane wrażliwe czy klasyfikacje wpływające na procesy decyzyjne w rekrutacji. Jeśli algorytm zaczyna w nieuprawniony sposób wykorzystywać tego typu informacje, to nawet funkcje, które na pierwszy rzut oka wydają się neutralne – jak generowanie ogłoszeń, tagowanie CV czy rekomendacje kandydatów – mogą wiązać się z ryzykiem naruszenia zasad etycznych lub prawnych. Dlatego tak ważne jest, by projektując i wdrażając rozwiązania AI, świadomie kontrolować, jakie dane są uwzględniane w procesie analizy i podejmowania decyzji.
W eRecruiter myślenie o rozwoju funkcji AI nigdy nie zasłaniało nam aspektów prawnych związanych z użyciem sztucznej inteligencji. Nasze narzędzia AI – od preselekcji po generowanie pytań rekrutacyjnych – wspierają pracę rekrutera, ale go nie zastępują. System nie analizuje emocji, nie wykorzystuje danych biometrycznych ani nie klasyfikuje kandydatów na podstawie cech osobowości. To człowiek ma ostatnie słowo – i to jest fundamentalna różnica – tłumaczy Konrad Szczygieł, Head of Marketplace w eRecruiter.

Informować to chronić – także siebie


AI Act wprowadza obowiązek informowania kandydatów o wykorzystaniu sztucznej inteligencji w procesach rekrutacyjnych. To wymóg prawny, ale też praktyczne narzędzie minimalizujące ryzyko nieporozumień i odpowiedzialności po stronie pracodawcy. Przejrzystość w komunikacji, wskazanie roli człowieka w podejmowaniu decyzji i jasne opisanie funkcji narzędzi AI może uchronić firmę przed zarzutami o nieetyczne lub niezgodne z prawem działania.
Transparentność to nie tylko wymóg przepisów. To realne zabezpieczenie firmy przed zarzutami o nieetyczne działania. Jeśli kandydat wie, na czym polega rola AI w procesie, a decyzje podejmuje człowiek – ograniczamy ryzyko nieporozumień i zwiększamy zaufanie. A to również przekłada się na wizerunek pracodawcy – dodaje Katarzyna Trzaska.

AI z głową – czyli jak korzystać, by nie narazić się na sankcje


AI Act nie zakazuje stosowania sztucznej inteligencji w HR – przeciwnie, zakłada jej dalszy rozwój, ale na zasadach odpowiedzialności i zgodności z prawem. Przed wdrożeniem rozwiązania opartego na AI warto jednak zadać dostawcy kluczowe pytania: jakie decyzje podejmuje system, na jakich danych operuje i czy spełnia kryteria określone przez unijne przepisy.
Odpowiedzialność nie kończy się na dostawcy technologii. To użytkownik, czyli firma wdrażająca AI, musi znać granice i ocenić ryzyka. Świadome korzystanie z AI to już nie tylko dobra praktyka. To obowiązek – podsumowuje Konrad Szczygieł.

Skomentuj artykuł Opcja dostępna dla zalogowanych użytkowników - ZALOGUJ SIĘ / ZAREJESTRUJ SIĘ

Komentarze (0)

DODAJ SWÓJ KOMENTARZ

Eksperci egospodarka.pl

1 1 1

Wpisz nazwę miasta, dla którego chcesz znaleźć urząd pracy.

Wzory dokumentów

Bezpłatne wzory dokumentów i formularzy.
Wyszukaj i pobierz za darmo: