Czy platformy AI mogą wykorzystywać chronione utwory do trenowania sztucznej inteligencji?
Brytyjski Sąd Najwyższy (High Court of Justice) w Londynie wydał precedensowe orzeczenie w sprawie Getty Images vs. Stability AI. Spór dotyczył trenowania sztucznej inteligencji na chronionych utworach. Jakie wnioski można wyciągnąć z tej sprawy?
Tło sporu Getty Images vs. Stability AI
Getty Images (amerykański gigant branży fotograficznej) pozwał Stability AI (twórcę popularnego modelu generatywnej AI Stable Diffusion), zarzucając mu m.in. naruszenie praw autorskich, praw do baz danych, znaków towarowych oraz popełnienie czynu nieuczciwej konkurencji. Wynikało to z trenowania modeli AI na chronionych prawem autorskim utworach (takich jak zdjęcia z biblioteki Getty).
Wyrok z korzyścią dla wydawcy modelu AI
W wydanym 4 listopada 2025 r. orzeczeniu sąd oddalił większość roszczeń Getty Images, zwłaszcza związanych z trenowaniem modelu sztucznej inteligencji oraz naruszeniem praw autorskich:
- Trenowanie modelu AI – ewentualne naruszenie praw autorskich mogło mieć miejsce na etapie trenowania modelu Stable Diffusion, gdy wykorzystano obrazy z bazy Getty Images bez zgody uprawnionych. Jednak proces ten odbywał się poza terytorium Wielkiej Brytanii (na serwerach Amazona w USA), co wyłącza jurysdykcję brytyjskiego sądu w zakresie rozpoznania roszczeń o pierwotne naruszenie prawa autorskiego.
- Pośrednie naruszenie praw autorskich – Getty Images argumentowało, że model Stable Diffusion stanowi przedmiot naruszający prawa autorskie, czyli nośnik zawierający kopie utworów wykorzystanych w procesie treningu. Sąd nie podzielił tego stanowiska wskazując, że Stable Diffusion nie przechowuje ani nie odtwarza kopii obrazów, a powstały model jest rezultatem procesu uczenia maszynowego, nie zaś egzemplarzem utworów w sensie materialnym.
Zwrócił jednak uwagę, że dostawca AI również może zostać obarczony odpowiedzialnością:
- Naruszenie znaków towarowych – sąd uznał, że w trakcie trenowania modeli AI w ograniczonym zakresie dochodziło do generowania syntetycznych obrazów zawierających znaki wodne „Getty Images” lub „iStock”, co może stanowić nadużycie w postaci użycia znaku towarowego w obrocie.
To przełomowy przypadek, w którym sąd potwierdza, że dostawca modelu AI może odpowiadać za generowanie elementów przypominających znaki towarowe.
Jakie wnioski płyną z wyroku?
Choć wyrok zapadł w Wielkiej Brytanii, jego implikacje mogą być szerokie – zarówno dla praktyki orzeczniczej w Unii Europejskiej, jak i w Polsce. To pierwsze tak obszerne orzeczenie, które szczegółowo analizuje odpowiedzialność prawną twórców modeli generatywnych za wykorzystanie treści chronionych prawem autorskim w procesie uczenia maszynowego.
Dla przedsiębiorców z branży nowych technologii orzeczenie stanowi sygnał, że odpowiedzialność za generatywną AI będzie w coraz większym stopniu zależeć od miejsca prowadzenia procesu trenowania modelu, a także od sposobu zarządzania ryzykiem naruszeń praw własności intelektualnej.
Jeśli chcą Państwo pogłębić temat lub mają w związku z nim pytania – zachęcamy do kontaktu!