Analiza emocji pracowników przez AI – gdzie kończy się innowacja, a zaczyna ryzyko prawne?
Sztuczna inteligencja coraz śmielej wkracza w działy HR. Po narzędziach wspierających rekrutację czy planowanie zasobów pojawiają się systemy, które mają pomagać „zrozumieć” pracowników – na przykład analizując ich nastrój, poziom stresu czy oznaki wypalenia zawodowego na podstawie mimiki twarzy, tonu głosu, tonu maila albo zachowania podczas spotkań online. Na pierwszy rzut oka to obiecująca innowacja, bo który menedżer nie chciałby szybciej wychwytywać problemów w zespole i wspierać pracowników? Jednak pojawia się pytanie: gdzie przebiega granica między nowoczesnymi rozwiązaniami a nadmierną ingerencją w prywatność pracownika?
AI Act a monitorowanie emocji przez sztuczną inteligencję
Zgodnie z AI Act[1] używanie systemów AI do wnioskowania o stanie emocjonalnym osoby w miejscu pracy zostało uznane za niedopuszczalne ryzyko i jest przykładem niedozwolonego użycia (tzw. systemy zakazane). W tym przypadku ryzyko naruszenia praw pracownika uznano za zbyt wysokie. Oznacza to, że w typowej sytuacji pracodawca nie może wdrożyć narzędzia AI, które np. analizuje mimikę czy głos pracownika, aby „mierzyć” jego nastrój w pracy.
Przykład nr 1: centrala banku chce wdrożyć system monitoringu rozmów z klientami, w ramach którego komponent AI analizuje mimikę pracownika (w tym liczbę uśmiechów), aby ocenić jakość pracy i zaangażowanie pracownika.
Zakaz z AI Act i odpowiedzialność za jego naruszenie, obejmuje nie tylko dostawców tych systemów, ale również użytkowników – pracodawców, którzy chcieliby wdrożyć takie narzędzie AI w swoim zakładzie pracy. Ponadto deklarowany cel wdrożenia (np. „dla dobra pracownika”) nie neutralizuje ryzyka – liczy się rzeczywiste działanie i skutki systemu, a nie marketingowe intencje.
Wyjątki – cele medyczne i bezpieczeństwo
AI Act przewiduje jednak wyjątki dotyczące monitorowania emocji – wolno stosować takie systemy, gdy służą one celom medycznym albo bezpieczeństwa.
W praktyce oznacza to, że monitorowanie stanu emocjonalnego pracownika przez sztuczną inteligencję jest dopuszczalne na przykład, gdy ma na celu zapobieżenie bezpośredniemu zagrożeniu zdrowia lub życia (szeroko rozumiane BHP) albo stanowi element świadczenia medycznego na rzecz pracownika (np. w ramach medycyny pracy).
Przykład nr 2: zakład produkcyjny wdraża system monitoringu z komponentem AI, który rozpoznaje oznaki zmęczenia u operatora ciężkiego sprzętu operującego w zakładzie produkcyjnym. Celem monitoringu jest zapobieżenie wypadkowi w miejscu pracy.
Zmęczenie nie jest stanem emocjonalnym – można wyprowadzać z tego stanu wnioski zgodnie z AI Act.
Przykład nr 3: zakład produkcyjny wdraża system monitoringu z komponentem AI, który rozpoznaje oznaki rozdrażnienia u operatora ciężkiego sprzętu operującego w zakładzie produkcyjnym. Celem monitoringu jest zapobieżenie wypadkowi w miejscu pracy.
Rozdrażnienie jest stanem emocjonalnym, z którego AI Act przewiduje zakaz wyprowadzania wniosków – poza wyjątkowymi przypadkami. Taki wyjątek jest przewidziany właśnie dla sytuacji, w której wnioskowanie o emocjach służy zapewnieniu bezpieczeństwa w zakładzie pracy i spełnia wymogi wynikające z pozostałych regulacji (zwłaszcza RODO, Kodeks pracy), a także zasadę proporcjonalności.
Trzeba jednak brać pod uwagę, że podleganie pod wyjątek i możliwość zastosowania takiego monitoringu emocji najprawdopodobniej zostanie zakwalifikowane jako użycie systemu AI wysokiego ryzyka. To z kolei będzie wymagać spełnienia przez użytkownika (jak również przez dostawcę takiego systemu AI) szeregu innych wymagań wynikających z AI Act.
Co z obserwowaniem zachowania pracownika przez AI?
Warto również pamiętać, że wnioskowanie o stanie emocjonalnym pracownika to co innego niż obserwowanie jego zachowania (np. pod kątem jakości pracy, wydajności, terminowości).
Przykład nr 4: system sprawdzający, czy pracownik dotrzymuje terminów realizacji swoich zadań – to obserwacja obiektywnych wskaźników efektywności, nie ocena zaangażowania lub nastawienia pracownika. W tym przypadku zazwyczaj można wykorzystać narzędzie AI.
Wnioski dla działów HR
Analiza emocji pracowników i wyciąganie z nich wniosków za pomocą AI nie jest traktowana jako neutralne udogodnienie, lecz jako obszar zasadniczo nieakceptowalnego ryzyka (z wyjątkami, które są obwarowane ścisłymi wymogami).
Dlatego zanim pomyślimy o wdrożeniu takiego narzędzia, warto zadać sobie kilka kontrolnych pytań:
- Czy problem, który chcemy rozwiązać, wymaga sięgania po monitorowanie emocji przez sztuczną inteligencję?
- Czy jesteśmy w stanie uzasadnić użycie tego narzędzia przed organami nadzoru (pod kątem zgodności z AI Act i RODO)?
- Czy przeprowadziliśmy analizę ryzyka oraz ocenę skutków dla danych osobowych (DPIA)?
- Czy jesteśmy gotowi wdrożyć niezbędne środki ochrony?
- Czy mamy procedury na wypadek błędnych wskazań systemu lub niezgodnego z przeznaczeniem użycia?
Podsumowanie
Działy HR i pracodawcy powinni ostrożnie podchodzić do narzędzi AI dotykających emocji pracowników – również wtedy, gdy dostawca rozwiązania deklaruje pełną zgodność z AI Act i RODO. Ostatecznie to także na pracodawcy spoczywa odpowiedzialność i ryzyko prawne związane z ochroną prywatności, danych oraz godności pracowników.
Jeśli potrzebują Państwo wsparcia w bezpiecznym i zgodnym z prawem wdrożeniu lub użytkowaniu rozwiązań AI w HR, zachęcamy do kontaktu.
[1] art. 5 ust. 1 lit. f AI Act