3 rzeczy, które musisz wiedzieć o Akcie w sprawie sztucznej inteligencji

Rok 2024 będzie okresem ogromnych zmian regulacyjnych w obszarze AI w związku z planowanym uchwaleniem unijnego Aktu w sprawie sztucznej inteligencji (AI Act). 8 grudnia 2023 r. Komisja Europejska, Rada UE oraz Parlament Europejski, w efekcie ostatniej serii rozmów trójstronnych, osiągnęli porozumienie co do finalnego kształtu rozporządzenia. Na tekst AI Actu musimy jeszcze chwilę poczekać (trwają prace techniczne), ale już dzisiaj znamy jego założenia.

 

Akt w sprawie sztucznej inteligencji istotny dla każdego przedsiębiorcy?

O pracach legislacyjnych w organach unijnych nad AI Actem słyszała już cała branża IT/AI. Zapomina się jednak, że adresatami przepisów Aktu w sprawie sztucznej inteligencji będą nie tylko developerzy opracowujący takie rozwiązania, ale też podmioty wdrażające i wykorzystujące systemy AI – czyli potencjalnie każda organizacja. Trudno bowiem wyobrazić sobie współczesne przedsiębiorstwo, w którym nie stosuje się systemów AI (choćby tych powszechnie dostępnych w internecie).

 

Z tego powodu warto zadać sobie kilka pytań:

1. Czy jestem adresatem Aktu w sprawie sztucznej inteligencji?

Największa część wymogów wprowadzanych przez Akt w sprawie sztucznej inteligencji będzie – co oczywiste – spoczywać na barkach dostawców systemów AI. Chodzi nie tylko o podmioty samodzielnie opracowujące modele AI (developerów), ale też zlecające budowę takich systemów. Jeżeli więc powierzymy stworzenie dla nas systemu AI, aby wprowadzić go do obrotu lub oddać do użytku (w tym użytku własnego!), spadnie na nas spory ciężar obowiązków.

Co więcej, część nowych wymogów będzie dotyczyć  również podmiotów jedynie stosujących systemy AI. Akt w sprawie sztucznej inteligencji będzie definiować takich użytkowników/podmioty wdrażające jako każdą osobą fizyczną lub prawną, organ publiczny, agencję lub inny podmiot, które korzystają z systemu AI pod swoją kontrolą. Wyjątkiem są sytuacje, gdy system jest wykorzystywany w ramach osobistej działalności pozazawodowej. Oznacza to, że już samo stosowanie w organizacji systemów AI powinno skierować naszą uwagę ku nowej regulacji.

 

2. Co i jak reguluje AI Act?

Akt w sprawie sztucznej inteligencji jest odpowiedzią UE na różne poziomy ryzyka wynikające z zastosowań sztucznej inteligencji: ryzyko ograniczone, wysokie i niedopuszczalne. Legislator starał się przy tym zachować równowagę między rozwojem innowacji a bezpieczeństwem jednostek. W efekcie główny ciężar AI Actu jest kładziony na regulację zakazanych zastosowań AI oraz tych, które mogą stanowić zwiększone ryzyko dla zdrowia, bezpieczeństwa lub praw podstawowych obywateli unijnych. Podstawowym obowiązkiem każdej organizacji będzie sprawdzenie, czy wykorzystywane lub tworzone przez nią narzędzia AI znajdują się w katalogu zakazanych praktyk (art. 5) lub katalogu zastosowań wysokiego ryzyka (art. 6 oraz zał. nr 3).

W dobie szalejącej popularności narzędzi generatywnej sztucznej inteligencji niezbędna będzie również weryfikacja przepisów dotyczących tzw. modeli podstawowych (foundation models). W toku prac legislacyjnych nad AI Actem jedne z największych dyskusji (i kontrowersji) budziła właśnie regulacja dużych modeli językowych, które są podstawą narzędzi generatywnej sztucznej inteligencji (np. ChataGPT). W efekcie osiągniętego porozumienia część dostawców AI zostanie objęta specjalnymi wymogami o modelach podstawowych, obejmującymi m.in. wymogi przejrzystości oraz podwyższony standard ochrony w przypadku modeli tworzących ryzyka systemowe.

Nie pozostają jednak w tym zakresie zupełnie obojętni ci, którzy będą jedynie dostrajać modele podstawowe. Jeżeli więc nasza organizacja chciałaby wdrożyć rozwiązania kalibrowane do swoich potrzeb, ale oparte na modelach od OpenAI czy Google (takich jak GPT, PaLM czy najnowsze Gemini), powstanie potrzeba dalszej analizy przepisów. Z wnioskami w tym zakresie warto poczekać jednak na ostateczny tekst osiągniętego porozumienia politycznego. Powinniśmy go poznać już wkrótce. Dokumenty odzwierciedlające wynik rozmów trójstronnych zostaną udostępnione w związku z pracami komisji Parlamentu Europejskiego (najbliższe posiedzenia właściwych komisji odbędą się pod koniec stycznia 2024 r.).

 

3. Kiedy AI Act zacznie mieć zastosowanie?

Akt w sprawie sztucznej inteligencji wejdzie w życie w 2024 r., jednak w praktyce zacznie być stosowany po upływie 24 miesięcy. Nowe wymogi rozporządzenia uderzą więc z całą mocą dopiero w 2026 r. Warto jednak podkreślić, że wcześniej zaczną obowiązywać przepisy dotyczące zakazanych systemów AI (po upływie pół roku od opublikowania rozporządzenia) oraz systemów AI ogólnego przeznaczenia (odpowiednio po upływie roku).

Odpowiednio wczesna analiza nowej regulacji oraz wyprzedzające działania dostosowawcze mogą uchronić przedsiębiorców przed niewystarczająco przemyślanymi i pospiesznymi wdrożeniami. Pomogą też uniknąć sankcji, gdy przepisy wejdą w życie (a będą one dotkliwe – nawet do 35 milionów euro lub 7 procent światowego obrotu firmy).

 

Warto podkreślić, że Komisja Europejska już teraz zainicjowała pakt na rzecz dobrowolnego wdrażania wymogów rozporządzenia przed faktycznym terminem jego stosowania (AI Pact). KE zbierze i opublikuje zobowiązania przedsiębiorstw, które dobrowolnie dostosują się do wymogów AI Actu w okresie przejściowym. Ma to zwiększyć wiarygodność i zaufanie do technologii oraz samych przedsiębiorstw uczestniczących w inicjatywie (dołączyć do AI Paktu można tutaj: EUSurvey – Survey (europa.eu)).

Pamiętajmy, że AI Act to niejedyna przestrzeń regulacyjna dla sztucznej inteligencji. Już teraz obowiązują przepisy, które mają wpływ na korzystanie z AI. Ramy prawne dotyczące danych, ochrony prywatności czy własności intelektualnej także decydują o sukcesie efektywnej automatyzacji w organizacjach. Nasi eksperci wspierają te procesy na każdym ich etapie. Zachęcamy do kontaktu również w zakresie opracowania planu wdrożeń AI Act w Państwa organizacji.

Maria Dymitruk

Counsel
Radca prawny | OW Legal

maria.dymitruk@olesinski.com