Kto i jak musi zadbać o kompetencje załogi w zakresie AI?

Na początku 2025 roku weszły w życie przepisy zobowiązujące przedsiębiorstwa do zapewnienia odpowiednich kompetencji w zakresie AI dla załogi i osób obsługujących systemy AI4 (np. zewnętrznych dostawców usług IT). Systemy i narzędzia AI zaczynają otaczać nas z różnych stron – jak choćby Microsoftowy Copilot czy rozwiązania Google, które coraz częściej stanowią domyślny element cyfrowych środowisk pracy. Nie trzeba ich osobno dokupywać, by pracownicy mogli z nich korzystać. To coraz bardziej zaawansowane funkcje, wbudowane bezpośrednio w skrzynki pocztowe, edytory dokumentów czy narzędzia do współpracy zespołowej. 

Czy w przypadku takich rozwiązań również trzeba zadbać o AI Literacy wśród załogi? 

Kto musi dbać o kompetencje załogi w zakresie AI?

Obowiązek AI Literacy dotyczy każdego przedsiębiorcy lub podmiotu publicznego, który używa, tworzy, zleca rozwijanie lub dostosowuje do swoich potrzeb narzędzia oparte na AI.

Chociaż niewypełnianie obowiązku AI Literacy nie jest karane bezpośrednio sankcją finansową, to brak jego realizacji z dużym prawdopodobieństwem doprowadzi do naruszenia innych zobowiązań zawartych w AI Act. Dlaczego? Powód jest prosty – bez odpowiednich kompetencji załogi nie da się prawidłowo wypełniać nowych obowiązków prawnych wynikających z AI Actu.

Zapewnienie kompetencji z zakresu AI po stronie załogi nie jest ograniczone tylko do wiedzy o systemach, regulowanych przez AI Act, czyli:

  • systemach zakazanych,
  • systemach wysokiego ryzyka,
  • systemach, wobec, których istnieją obowiązki transparentności,
  • sztucznej inteligencji ogólnego przeznaczenia.

AI Literacy dotyczy każdego podmiotu korzystającego lub opracowującego jakikolwiek system sztucznej inteligencji. W efekcie obowiązek jest uniwersalny, choć uniwersalne nie są sposoby na jego spełnienie.

Za naruszenie postanowień AI Act, które mogą powstać m.in. w wyniku braku odpowiedniej wiedzy, obowiązują dotkliwe kary finansowe. Mogą one sięgać nawet 35 mln EUR lub 7 % całkowitego rocznego obrotu.

Dodatkowo brak odpowiednich kompetencji zespołu w zakresie AI może prowadzić m.in. do nieumyślnego ujawnienia danych poufnych lub osobowych, co może skutkować poważnymi konsekwencjami finansowymi, prawnymi oraz reputacyjnymi.AI Literacy dotyczy każdego podmiotu korzystającego lub opracowującego jakikolwiek system sztucznej inteligencji. W efekcie obowiązek jest uniwersalny, choć uniwersalne nie są sposoby na jego spełnienie.

Co w przypadku podmiotów, które tylko dopuszczają korzystanie z narzędzi opartych na AI?

Omawiany obowiązek dotyczy wyłącznie podmiotów stosujących narzędzia AI i ich dostawców w rozumieniu rozporządzenia, a więc sytuacji, w których przedsiębiorcy sprawują kontrolę nad systemami AI.

Niemniej jednak pogłębiona analiza tego zagadnienia prowadzi do wniosku, że obowiązek zadbania o kompetencje załogi w zakresie AI aktywizuje się już w przypadku wykorzystywania narzędzi takich jak Microsoft Copilot – rozwiązania opartego na AI, zintegrowanego z aplikacjami pakietu Microsoft 365 (np. Word, Excel, Outlook), dostępnego dla użytkowników wersji biznesowej.

Obowiązek wynika z tego, że pracodawcy w tej sytuacji zapewniają takie cyfrowe środowiska pracy oraz płacą za te rozwiązania. Mają również przykładowo w Microsoft 365 techniczną możliwość wyłączenia funkcji Copilota zarówno na poziomie pojedynczych aplikacji (np. Word, Excel, Outlook), jak i na poziomie całej organizacji – w przypadku uprawnień administratorów. Stąd w naszej ocenie w przypadku cyfrowych środowisk pracy zapewnianych przez pracodawców przesłanka „kontroli na systemem AI” jest spełniona.

Niezależnie od powyższych wniosków, biorąc pod uwagę ryzyka oraz dynamikę rozwoju systemów AI (które nie muszą stanowić samodzielnych produktów, ale często dołączane są do standardowo wykorzystywanych programów w formie dodatków, tzw. add-on) w naszej ocenie wszyscy przedsiębiorcy, którzy zezwalają lub przyzwalają na wykorzystywanie narzędzi AI, powinni wspierać rozwój wiedzy i umiejętności w zakresie bezpiecznego oraz odpowiedzialnego korzystania z takich technologii.

Szkolenia z zakresu sztucznej inteligencji

W przystępny sposób wyjaśniamy obowiązki wynikające z regulacji, pokazujemy realne ryzyka i uczymy, jak bezpiecznie wykorzystywać AI w codziennej pracy, na konkretnych przykładach z praktyki.

AI Literacy – kompetencje szyte na miarę

Struktury organizacyjne podmiotów zobowiązanych do wdrożenia AI Actu są zróżnicowane. Zupełnie inaczej wygląda więc nabywanie AI Literacy wśród programistów odpowiedzialnych za tworzenie produktów opartych na AI, inaczej w dziale HR spółki zatrudniającej 50 pracowników, a jeszcze inaczej w dziale prawnym firmy z branży AI. Dlatego tak ważne jest dostosowanie sposobu rozwoju tych kompetencji do jego odbiorców.

AI Act[2] wprowadza regułę, zgodnie z którą AI Literacy ma być szyte na miarę – dopasowane do wiedzy technicznej, doświadczenia, wykształcenia i przeszkolenia pracowników, a także do kontekstu, w jakim systemy AI będą używane.

To więc naturalne, że przedsiębiorcy korzystający z wbudowanych funkcji AI w cyfrowych środowiskach pracy – takich jak Microsoft 365 czy Google Workspace – zaczynają się zastanawiać, jak właściwie spełnić obowiązki związane z ich bezpiecznym wykorzystaniem. 

Korzystanie z tych funkcji to przecież nie tylko wygoda, ale też decyzja o „powierzeniu” danych firmowych systemom, które działają w tle i przetwarzają informacje. Czy to coś zmienia? W naszej ocenie – tak. Nawet w przypadku narzędzi dostępnych domyślnie, warto ustalić zasady ich użycia, by stworzyć dla zespołu ramy bezpiecznego korzystania.

Przykładowo, jedną z takich zasad może być wyłączenie transkrypcji podczas poufnych spotkań – tak, by żadne automatyczne narzędzie nie rejestrowało ich przebiegu. To tylko jeden z wielu aspektów, które warto przemyśleć.

Najlepiej, jeśli tego typu reguły zostaną kompleksowo uregulowane w wewnętrznych politykach organizacji, a personel zostanie przeszkolony z ich stosowania.

Co więcej, każdorazowo trzeba wziąć pod uwagę charakterystykę nie tylko własnego personelu, ale również innych osób, które wchodzą w interakcję z AI. O co dokładnie chodzi? Omówmy to na przykładzie.

Przykład

Sklep internetowy oferuje klientom pomoc chatbota, który rekomenduje produkty na podstawie indywidualnych preferencji.

Zapewnienie kompetencji personelu pomocy technicznej czy obsługi klienta powinno tu uwzględniać odpowiednią wiedze dotyczącą specyfiki tego narzędzia. Nawet jeśli pracownicy nie będą bezpośrednio obsługiwać chatbota, mogą dostawać zapytania na jego temat od sfrustrowanego klienta, któremu narzędzie „nie działa" lub dostarczyło nieprawidłowych informacji.

Benchmark rynkowy

Pierwsze, co przychodzi na myśl, gdy słyszymy o obowiązku zapewnienia kompetencji z zakresu AI, to szkolenia. Jak robią to inni i na co zwrócić uwagę? Z pomocą przychodzi wydane przez Europejski Urząd ds. AI „Żywe repozytorium praktyk AI Literacy”[3]. W materiale opisano dobre praktyki firm, które dołączyły do unijnego AI Paktu[4]. Jest to świetny materiał inspiracyjny, jak w praktyce zwiększać kompetencje załogi.

Podejścia oczywiście różnią się w zależności od modelu działalności i skali konkretnego przedsiębiorstwa. Większe podmioty częściej posiadają formalne procedury i specjalne wytyczne dla pracowników, połączone z praktycznymi szkoleniami z używania systemów AI.

Takie szkolenia najczęściej przyjmują formę obowiązkowego treningu „bazowego” dla wszystkich pracowników. Obejmują nie tylko naukę korzystania z systemów AI, ale również transfer wiedzy na temat najlepszych praktyk ochrony danych w interakcji ze sztuczną inteligencją. Ze względu na ryzyko wycieku danych, podstawowe szkolenie dla całej załogi jest zalecane dla każdego biznesu.

Czy podstawa zawsze wystarczy?

Podstawowy zakres szkoleń ogólnych powinien być uzupełniany formami podnoszenia kompetencji skierowanymi do użytkowników „zaawansowanych”, poszczególnych działów firmy czy kadry zarządzającej. Korzystanie z AI przez zróżnicowane grupy pracowników wiąże się z różnym rodzajem ryzyka. Innego typu wiedza i kompetencje z zakresu AI są wymagane od działu marketingu, inne od działu zarządzania produktami, a jeszcze inne od działu obsługi klienta.

Oferujemy kompleksowe wsparcie w obszarze AI, w tym co do obowiązków AI Literacy. Oprócz zaprojektowania odpowiednich procedur i polityk wewnętrznych chętnie przeprowadzimy dla Państwa szkolenia z zakresu odpowiedzialnej obsługi narzędzi opartych na AI lub zgodnego z prawem opracowywania rozwiązań sztucznej inteligencji – zawsze z uwzględnieniem potrzeb i specyfiki Państwa organizacji.

Jeśli chcą Państwo uzyskać takie wsparcie lub mają pytania do tematu AI Literacy – zachęcamy do kontaktu.


[1] Art. 4 AI Act.

[2] Art. 4 AI Act

[3] https://digital-strategy.ec.europa.eu/en/library/living-repository-foster-learning-and-exchange-ai-literacy

[4] https://digital-strategy.ec.europa.eu/en/policies/ai-pact

Autor :
Joanna Lentka-Wróbel
Senior Manager Radca prawny | OW Legal
Specjalizuje się w projektach związanych z nowymi technologami, digitalizacją oraz IT.
Autor :

może zainteresuje Cię również