Wysoki Trybunał Wielkiej Brytanii wydał niejednolity wyrok w sprawie dotyczącej praw autorskich Getty vs. Stability AI

4 listopada londyński Sąd Najwyższy wydał niejednoznaczną decyzję w sporze o prawa autorskie pomiędzy Getty Images a Stability AI, która zapewniła częściowe zwycięstwo obu stronom.

Wyrok pozostawia w Wielkiej Brytanii podstawowe kwestie prawne dotyczące szkolenia sztucznej inteligencji na danych chronionych prawem autorskim w dużej mierze nierozwiązane.

W londyńskim sądzie sędzia uznał, że model Stability AI nie złamał prawa autorskiego, gdyż szkolenie odbyło się poza granicami kraju.

Sąd uznał jednak, że Stability AI rzeczywiście naruszyła znaki towarowe Getty, generując obrazy ze znakiem wodnym. Odkrycie to wywiera znaczną presję na rząd Wielkiej Brytanii, aby stworzył jasne zasady dla szybko rozwijającej się branży sztucznej inteligencji.

Zwycięstwo jurysdykcyjne na rzecz stabilności sztucznej inteligencji w zakresie podstawowych roszczeń dotyczących praw autorskich

W orzeczeniu mającym istotne konsekwencje dla branży sztucznej inteligencji sąd stanął po stronie Stability AI w podstawowej kwestii praw autorskich. Sędzia Joanna Smith stwierdziła, że ​​model sztucznej inteligencji Stable Diffusion nie stanowi „kopii naruszającej prawa” dzieła Getty’ego.

Jej wyrok opierał się na kluczowym punkcie jurysdykcyjnym: Getty musiała wycofać swoje pierwotne roszczenie dotyczące praw autorskich, ponieważ nie było dowodów, że szkolenie w zakresie sztucznej inteligencji odbyło się w Wielkiej Brytanii.

Wynik ten był zapowiedzią strategicznej zmiany w połowie procesu. W czerwcu Getty Images wycofało swoje główne roszczenia dotyczące praw autorskich, co po zapoznaniu się z zeznaniami określiło jako „pragmatyczną decyzję”.

Ten punkt zwrotny zawęził sprawę, oddalając ją od bezpośredniego kwestionowania legalności samego szkolenia w zakresie sztucznej inteligencji. Zamiast tego skupił się na bardziej zniuansowanej teorii wtórnego naruszenia, argumentując, że modelem był „artykuł naruszający prawo” nielegalnie importowany do Wielkiej Brytanii.

Ostatecznie,sąd odrzuciłto wtórne roszczenie. Pani sędzia Joanna Smith stwierdziła:

„Chociaż model sztucznej inteligencji, taki jak Stable Diffusion, można opisać (w uproszczeniu) jako narzędzie umożliwiające użytkownikom generowanie obrazów, nie jest to pełny opis.

Jak zgodzili się eksperci w Podstawie technicznej, Stable Diffusion to system uczenia maszynowego, którego podstawowa funkcja opiera się głównie na wzorcach uczenia się z wyselekcjonowanego zbioru danych szkoleniowych. Jego ostateczna funkcja nie jest w całości kontrolowana bezpośrednio przez inżynierów, którzy go zaprojektowali, ale duża część jego funkcjonalności jest kontrolowana pośrednio poprzez dane szkoleniowe.

Wagi modeli są uczone z danych uczących i to właśnie wagi modeli kontrolują funkcjonalność sieci. Chociaż proces wnioskowania nie wymaga wykorzystania danych uczących, wyniki generowane podczas wnioskowania będą (przynajmniej pośrednio) funkcją tych danych uczących.

Zatem, jak zgadzają się Eksperci, generowanie znaków wodnych* przez Model „wynika z faktu, że model został wytrenowany na pewnej liczbie obrazów zawierających ten widoczny znak wodny”. To jest odpowiedzialność Stabilności.”

Stabilność AI z zadowoleniem przyjęła decyzję w sprawie głównej kwestii. Christian Dowell, główny radca prawny firmy, powiedział: „Jesteśmy zadowoleni z orzeczenia sądu w sprawie pozostałych roszczeń w tej sprawie”.

Orzeczenie zapewnia ulgę twórcom sztucznej inteligencji, których procesy szkoleniowe są prowadzone poza zasięgiem prawa Wielkiej Brytanii, podkreślając potencjalną lukę w obecnych zabezpieczeniach praw autorskich.

Getty zapewnia kluczową wygraną w związku z naruszeniem znaku towarowego

Podczas gdy Stability AI skutecznie obroniła się przed głównym zarzutem dotyczącym praw autorskich, Getty Images odniosło decydujące zwycięstwo na gruncie własności intelektualnej. Sąd uznał, że Stability AI ponosi odpowiedzialność za naruszenie znaku towarowego, gdy jej model produkuje obrazy opatrzone znakiem wodnym Getty Images. C

Z reguły sędzia obarczył odpowiedzialnością za naruszenie dostawcę modelu, a nie użytkownika końcowego, który wprowadził monit.

W swoimoficjalna odpowiedź, Getty Images pochwaliło tę część wyroku. Firma stwierdziła: „Dzisiejsze orzeczenie potwierdza, że ​​włączenie przez Stable Diffusion znaków towarowych Getty Images do materiałów wyjściowych generowanych przez sztuczną inteligencję narusza te znaki towarowe”.

Odkrycie to ustanawia potężny precedens, nakładający na firmy zajmujące się sztuczną inteligencją obowiązek kontrolowania wyników swoich modeli i zapobiegania nieuprawnionemu wykorzystywaniu chronionych marek.

Ta walka prawna jest częścią szerszej strategii „kija i marchewki” Getty’ego. Firma nie jest przeciwna sztucznej inteligencji; opracowała własne narzędzie „Generative AI by Getty Images”, szkolące wyłącznie na własnych licencjonowanych treściach z modelem wynagrodzeń dla artystów.

Podpisała także umowy licencyjne z firmami takimi jak Perplexity AI, sygnalizując jasną ścieżkę dla firm skłonnych płacić za treści.

Kluczowym ustaleniem sądu jest fakt, że dzieła Getty'ego chronione prawem autorskim zostały wykorzystane do szkolenia Stable Diffusion.

Chociaż nie doprowadziło to do orzeczenia w sprawie naruszenia praw autorskich ze względu na jurysdykcję, potwierdza to podstawowe twierdzenie Getty, że jego treść została pobrana bez licencji.

Dowiedz się więcej:Sprawa dotycząca praw autorskich w zakresie meta AI: sędzia rządzi Szkolenie sztucznej inteligencji w zakresie książek jest dozwolonym użytkiem, ale ich piractwo już nie

Getty potwierdził, że wykorzysta te ustalenia faktyczne do swojego toczącego się, znacznie większego pozwu w Stanach Zjednoczonych, w którym domaga się odszkodowania w wysokości do 1,7 miliarda dolarów.

Złamane orzeczenie wzmacnia wezwania rządu Wielkiej Brytanii do przyjęcia przepisów dotyczących sztucznej inteligencji

Dla twórców i posiadaczy praw w całej Wielkiej Brytanii werdykt jest mieszanym i niepokojącym sygnałem. Podkreśla potencjalną lukę, w ramach której modele sztucznej inteligencji można szkolić na treściach tworzonych w Wielkiej Brytanii, o ile przetwarzanie odbywa się gdzie indziej.

Eksperci prawni szybko wskazali na mankamenty istniejącego prawa. Rebecca Newman, dyrektor prawna w Addleshaw Goddard, ostrzegła: „…brytyjski system praw autorskich nie jest wystarczająco silny, aby chronić swoich twórców”.

Sprawa rozpoczęła się od tego, że prawnicy Getty’ego określili ją jako „dzień rozliczenia z takim podejściem” dla firm zajmujących się sztuczną inteligencją, które bez pozwolenia wykorzystują dzieła chronione prawem autorskim.

Teraz niejednoznaczna decyzja podkreśla trudność w zastosowaniu starych przepisów do nowych technologii. Taka dwuznaczność prawna spowodowała ponowne wezwania do podjęcia działań legislacyjnych ze wszystkich stron debaty.

Z politycznego punktu widzenia klimat Wielkiej Brytanii jest już obciążony tą kwestią. Na początku roku, gdy rozpoczął się przełomowy pozew dotyczący praw autorskich w Wielkiej Brytanii, setki kreatywnych liderów nalegało, aby rząd nakazał firmom zajmującym się sztuczną inteligencją przejrzystość w zakresie ich danych szkoleniowych.

W obliczu wstrzymania wysiłków legislacyjnych decyzja Wysokiego Trybunału stała się jeszcze bardziej krytyczna. Getty wykorzystuje swoje częściowe zwycięstwo, aby naciskać na zmiany systemowe.

W swoim oświadczeniu Getty nalegał: „Wzywamy rządy, w tym Wielką Brytanię, do ustanowienia silniejszych zasad przejrzystości, które są niezbędne, aby zapobiec kosztownym bataliom prawnym i umożliwić twórcom ochronę ich praw”.

Orzeczenie skutecznie przekazuje pałeczkę prawodawcom, którzy obecnie stoją przed rosnącą presją, aby określić granice prawne dla brytyjskiego przemysłu sztucznej inteligencji, zanim nadejdzie kolejna przełomowa sprawa.

Related Posts