W piątek w Sądzie Okręgowym w Warszawie odbędzie się pierwsza rozprawa w precedensowym procesie o bezprawne wykorzystanie głosu lektora przy użyciu sztucznej inteligencji. Pełnomocnik lektora podkreśla, że to, iż nie ma aktu prawnego dotyczącego bezpośrednio AI, nie oznacza, że jest to sfera nieuregulowana.
– Sprawa będzie precedensowa, ponieważ co prawda oczywiście już sprawy dotyczące naruszenia dobra osobistego, jakim jest wizerunek czy głos, były rozstrzygane, natomiast pierwszy raz mamy do czynienia ze sprawą, w której głos został stworzony i przekształcony przez AI (deepfake) i do tego wykorzystany komercyjnie – powiedziała pełnomocnik lektora Jarosława Łukomskiego mec. Wiktoria Stasiewicz.
Mecenas zaznaczyła, że obecnie w przestrzeni publicznej coraz częściej mówi się o deepfake’ach i ryzykach związanych z powszechnym wykorzystywaniem sztucznej inteligencji, jednak sprawy dotyczące dokonanych przez AI naruszeń rzadko trafiają do sądu.
– Wierzymy, że to rozstrzygnięcie może mieć wpływ na kierunek orzecznictwa w przyszłości, jako że na ten moment zasoby wiedzy są dosyć ograniczone, bo takich procesów sądowych po prostu nie było – dodała.
Mecenas Tomasz Ejtminowicz, który również reprezentuje lektora, powiedział, że stanowisko firmy, w reklamie której pojawił się głos Jarosława Łukomskiego, opiera się na stwierdzeniu, że sztuczna inteligencja nie jest w polskim prawie uregulowana. W związku z tym w ocenie strony przeciwnej proces pozbawiony jest podstaw. Ale – podkreślił mec. Ejtminowicz – dla pełnomocników lektora takie twierdzenie jest absurdalne.
– Nie ma czegoś takiego jak brak uregulowania jakiegoś wycinka rzeczywistości – powiedział. – Zawsze, nawet jeżeli nie ma szczególnego aktu przypisanego bezpośrednio do sztucznej inteligencji, ochronę prawną można wyprowadzać z norm wyższego rzędu – na przykład z Kodeksu cywilnego, Kodeksu karnego, Prawa autorskiego czy z przepisów o zwalczaniu nieuczciwej konkurencji – podkreślił Ejtminowicz. Dodał, że nie każdy element życia musi być „ometkowany” własną ustawą.
Jarosław Łukomski powiedział, że o tym, iż jego głos pojawił się w internetowej reklamie szamb, w nagraniu której nie brał udziału, dowiedział się od znajomego.
– Otworzyłem link i ku swojemu zdumieniu odkryłem, że rzeczywiście to brzmi jak ja, ale to nie są słowa, które kiedykolwiek wypowiedziałem, ani nie przypomina mi to zlecenia, jakie bym kiedyś od kogokolwiek otrzymał – mówił.
Łukomski zaznaczył, że wraz z grupą innych lektorów około dwa lata temu podpisał z prowadzącą internetowy bank głosów firmą Mikrofonika, z którą współpracuje, umowę dotyczącą próby stworzenia cyfrowego modelu jego głosu. – Wiedzieliśmy, że takie zjawisko kiedyś wystąpi i jeżeli wystąpi, to należy być pierwszym (…) i mieć kontrolę nad tym, w jaki sposób mój głos (…) może zostać w przyszłości użyty, przez kogo i na jakich zasadach – dodał. Zaznaczył jednak, że prace nad tym projektem zostały przerwane.
– W międzyczasie ktoś, nie przejmując się specjalnie jakością (…), nie zapytawszy mnie, czy chciałbym wziąć udział w zleceniu, (…), nie zapytawszy nikogo o to, czy może istnieje gdzieś umowa na wyłączność na mój głos w wersji cyfrowej, po prostu stworzył cyfrowy model mojego głosu i użył go w celach komercyjnych – powiedział Łukomski.
Zapowiedział, że w sądzie będzie domagać się od pozwanej firmy zapłaty kwoty, którą uzyskałby, pracując nad reklamą, w której wykorzystany został stworzony przez AI model jego głosu, oraz finansowego zadośćuczynienia z tytułu naruszenia jego dóbr osobistych.
Pierwsza rozprawa w procesie o wykorzystanie cyfrowego modelu głosu Jarosława Łukomskiego przez sztuczną inteligencję odbędzie się w piątek 23 stycznia w Wydziale Własności Intelektualnej warszawskiego Sądu Okręgowego.
„Dźwięczny wizerunek”
Pełnomocnicy lektora zaznaczyli, że zasadniczym naruszeniem, na jakie będą zwracać uwagę w trakcie procesu, jest naruszenie prawa do głosu. Mecenas Stasiewicz wyjaśniła, że w doktrynie można spotkać się z dwoma poglądami dotyczącymi traktowania głosu jako dobra osobistego. Według pierwszego z nich głos podlega ochronie jako element wizerunku człowieka i jest on wtedy traktowany jako tzw. dźwięczny wizerunek. Dodała, że niekiedy głos bywa także traktowany jako odrębne dobro osobiste. – Natomiast wnioski ostatecznie są takie same: zarówno głos, jak i wizerunek podlegają ochronie na analogicznych zasadach – podkreśliła.
Z pojęciem „dźwięcznego wizerunku” spotkać się można choćby w orzeczeniu Sądu Najwyższego z 3 października 2007 r. SN stwierdził wtedy, że głos „powinien być chroniony w ramach prawa do wizerunku, stanowi bowiem jego element nie jako obraz fizyczny (wizualny) danej osoby, lecz jako jej obraz odbierany za pomocą słuchu”. W wyroku podkreślono jednak, że prawo osobiste do ludzkiego głosu należy traktować jako „dźwięczny wizerunek”, „pod warunkiem, że jest rozpoznawalny dla osób trzecich”, czyli – jak wyjaśniono – jest on na tyle charakterystyczny, że pozwala na rozpoznanie i wskazanie osoby, od której pochodzi.
W wyroku z 7 marca 2023 r. SN stwierdził z kolei, że „głos, podobnie jak np. wizerunek, jest dobrem obejmującym określony element tożsamości fizycznej człowieka i jednocześnie zindywidualizowanym z uwagi na niemal niepowtarzalną barwę i skalę”. W orzeczeniu wskazano także, że istnienie odrębnego dobra osobistego, jakim jest głos, a także konieczność jego ochrony nie stoją w sprzeczności z faktem, że nie został on wymieniony w katalogu dóbr osobistych znajdującym się w art. 23 Kodeksu cywilnego. Przepis ten zawiera bowiem jedynie zbiór przykładowych dóbr osobistych i nie stanowi katalogu zamkniętego.
W orzeczeniu SN z 2023 r. zaznaczono także, że „typowym przykładem ingerencji” w głos jako samodzielne dobro osobiste jest „jego przekształcenie za pomocą narzędzi cyfrowych w taki sposób, iż barwa dźwięku pozwala odbiorcy na identyfikację głosu innej osoby, zaś z wykorzystaniem tak utrwalonego dźwięku dochodzi do fałszywego przypisania tej osobie wypowiadania przez nią określonych treści – zjawisko tzw. deep fake”.
