Pornografia tworzona przy pomocy AI. Co za to grozi?

euractiv.pl 1 rok temu
Zdjęcie: https://www.euractiv.pl/section/praca-i-polityka-spoleczna/news/pornografia-tworzona-przy-pomocy-ai-co-za-to-grozi/


Nie jest karalne samo wytworzenie obrazu czy filmu przez sztuczną inteligencję. Odpowiedzialność karna zależy od stwierdzenia naruszenia dóbr osobistych innej osoby – mówi nam dr hab. Mikołaj Małecki z Krakowskiego Instytutu Prawa Karnego.

Wykorzystywanie sztucznej inteligencji do kreowania materiałów pornograficznych to temat, który od pewnego czasu głośno wybrzmiewa w temacie AI. Wielu ekspertów już wcześniej wskazywało, iż tego typu zastosowanie sztucznej inteligencji to tylko kwestia czasu.

Problem jest jednak poważny, bowiem nie chodzi o samo tworzenie fikcyjnych materiałów, ale wykorzystywanie do tego realnych ludzi wbrew ich woli. Zdarza się, iż również dzieci i młodzieży.

W październiku media informowały o sytuacji w Hiszpanii, gdzie kilkunastoletni chłopcy używali sztucznej inteligencji, by tworzyć nagie zdjęcia koleżanek z klasy, a potem udostępniali je na Whatsappie i Telegramie. Wczoraj „The Guardian” informował o tym, iż z podobnym problemem systemowo borykają się brytyjskie szkoły.

– Trzeba ostrzec dzieci, iż te obrazy mogą rozprzestrzeniać się w internecie, mogą być oglądane przez nieznajomych i drapieżników seksualnych. Potencjał nadużywania tej technologii jest przerażający – mówiła w rozmowie z gazetą Emma Hardy, dyrektor organizacji UK Safety Center (UKSIC).

Zniesławienie lub znieważenie

Prawo, jak wiele innych dziedzin, nie do końca nadąża za rozwojem AI. W wielu przypadkach nie jest więc jasne, za co konkretnie powinien odpowiadać sprawca tego typu naruszeń. Na poziomie unijnym sprawę regulować ma negocjowany właśnie AI Act, czyli akt o sztucznej inteligencji, jednak na razie nie zaczął on obowiązywać. W każdym kraju członkowskim przepisy mogą być więc nieco inne.

Jak podkreśla w rozmowie z Euractiv Polska dr hab. Mikołaj Małecki z Krakowskiego Instytutu Prawa Karnego, samo wytworzenie przez AI obrazu lub filmu nie jest karalne. „Odpowiedzialność karna zależy od stwierdzenia naruszenia dóbr osobistych innej osoby”, wskazuje.

– Udostępnianie wytworzonego wizerunku istniejącej osoby dorosłej w filmie pornograficznym może być uznane za zniesławienie albo znieważenie tej osoby. Materiał sugeruje, iż ktoś rzeczywiście brał udział w nagrywaniu filmu jako aktor lub aktorka, lub też prezentuje go w sytuacji poniżającej, uwłaczającej godności – podkreśla ekspert.

Do dwóch lat więzienia

Sytuacja pozostało bardziej poważna w momencie, gdy ktoś wykorzystuje wizerunek osoby małoletniej – pornografia z ich udziałem jest bowiem ściśle zakazana, począwszy od wytwarzania, poprzez posiadanie, aż po rozpowszechnianie. „Dlatego jeżeli ktoś zarejestruje film pornograficzny wykorzystując wizerunek osoby małoletniej – popełnia przestępstwo”, wskazuje dr Małecki.

– jeżeli dzięki sztucznej inteligencji wytworzy się wizerunek fikcyjnego małoletniego w sytuacji seksualnej, będzie to przestępstwo z art. 202 par. 4a k.k. zagrożone karą do 2 lat pozbawienia wolności. Przepisy nie wymagają więc, by w produkcji pornografii brało udział rzeczywiste dziecko. Nie ma znaczenia pokrzywdzenie konkretnej osoby, bo chodzi o zwalczanie w ogóle wytwarzania treści pedofilskich – tłumaczy.

Wymiar kar różnicuje oczywiście między pornografią z udziałem prawdziwych dzieci a tą wytworzoną cyfrowo. Podczas gdy w tym pierwszym przypadku maksymalna kara to do 5 lat więzienia w przypadku samego posiadania takich materiałów i do 15 lat w przypadku posiadania w celu rozpowszechniania, w tym drugim sprawcy grożą dwa lat więzienia.

Platformy nie mogą umywać rąk

Choć wygenerowana przez AI pornografia dziecięca może być pożywką dla pedofilów, w przytaczanych przez mediach historiach często mowa o sytuacjach, w których nielegalne filmy tworzą same osoby małoletnie. Odpowiedzialność, jaką mogą ponieść, jest więc bardzo ograniczona. Wspólnym mianownikiem jest za to fakt, iż zdjęcie czy filmy trafiają potem do internetu – najczęściej na popularne serwisy społecznościowe.

– Choć platformy same nie tworzą takich treści, to jednak odgrywają bardzo istotną rolę, ponieważ stały się głównym kanałem ich dystrybucji. W związku z tym jasne jest, iż muszą się włączyć w walkę z tym zjawiskiem – mówi nam Dorota Głowacka z Fundacji Panoptykon. Jak podkreśla, do reakcji zobowiązuje je zarówno istniejące dotychczas prawo, jak i nowa regulacja Digital Services Act (DSA), czyli unjiny akt o usługach cyfrowych.

Na mocy tego rozporządzenia najwięcej obowiązków nałożono na te największe platformy, posiadające powyżej 45 mln użytkowników (tzw. VLOPs – very large online platforms). Zobowiązano je m.in. do cyklicznej oceny systemowych ryzyk związanych z ich funkcjonowaniem, a następnie wprowadzenia narzędzi, które je zminimalizują.

– Wśród wymienionych w DSA przykładów wprost wspomina się o narzędziach służących do weryfikacji, czy publikowane przez użytkowników materiały nie są deepfake’ami, i umożliwiających odpowiednie oznaczanie ich przez platformy, jak również możliwości oznaczenia materiałów jako deepfake przez samego użytkownika – mówi Głowacka, zwracając przy tym uwagę, iż nie każdy, kto tworzy deepfake’i, chce to ukryć, i nie zawsze ich celem jest zaszkodzeniem drugiej osobie.

Strony pornograficzne poza unijną listą

Kluczowym problemem jest jednak fakt, iż na liczącą w tej chwili 19 pozycji listę największych platform i wyszukiwarek nie trafiła do tej pory żadna ze stron pornograficznych, choć niektóre z nich same wskazywały, iż liczba ich użytkowników w UE zdecydowanie przekracza 45 mln. Jeden z serwisów ocenił liczbę unijnych użytkowników na 160 mln, czyli znacznie powyżej tego progu.

– Na ten moment takie strony muszą przestrzegać podstawowych zasad obejmujących wszystkich dostawców usług hostingowych i platform, ale zaklasyfikowanie ich jako VLOPs pozwoliłoby na znacznie skuteczniejszą walkę ze zjawiskiem deepfake’ów – mówi przedstawicielka Panoptykonu.

Organizacja ta jest jedną z trzydziestu, które skierowały w tej sprawie list do Komisji Europejskiej. Jak podkreślają, strony pornograficzne są jednymi z najchętniej odwiedzanych na świecie, a ich nieobecność na unijnej liście można tłumaczyć celowym zaniżaniem liczby użytkowników. Autorzy listu zarzucają KE małą transparentność w wyborze „VLOPs”.

– Wiemy, iż Komisja Europejska planuje listę poszerzyć – mówi nam Głowacka, dodając, iż ma do tego dojść do końca tego roku. w tej chwili jest na niej siedem znanych serwisów społecznościowych – Facebook, TikTok, X (kiedyś Twitter), YouTube, Instagram, LinkedIn, Pinterest i Snapchat. Oprócz tego trafiły na nią również m.in.: Amazon, Booking, AliExpress, Zalando, Wikipedia oraz wyszukiwarki Google Search i Microsoft Bing.

Idź do oryginalnego materiału