Sztuczna inteligencja a bezpieczeństwo dzieci. Apel RPD do Ministerstwa Cyfryzacji

laptop w ciemności

Rzeczniczka Praw Dziecka napisała do Ministerstwa Cyfryzacji w spawie wykorzystywania narzędzi sztucznej inteligencji do tworzenia i rozpowszechniania materiałów przedstawiających seksualne wykorzystanie dzieci.

Monika Horna-Cieślak w piśmie z 23 października 2025 r. do Ministerstwa Cyfryzacji wskazała na pilną potrzebę rozpoczęcia prac nad przepisami mającymi na celu skuteczne przeciwdziałanie tego rodzaju nadużyciom w środowisku cyfrowym.

Wystąpienie Generalne do Ministra Cyfryzacji w sprawie platform AI oferujących usługi tworzenia lub modyfikowania wizerunków

– Zjawisko wykorzystywania narzędzi generatywnej sztucznej inteligencji do tworzenia realistycznych wizerunków dzieci w kontekście seksualnym przybiera coraz szerszy i niebezpieczny charakter (…). Najnowsze badania naukowe i raporty organizacji międzynarodowych wskazują, że rozwój generatywnej sztucznej inteligencji stworzył nowy segment komercyjnych usług umożliwiających masową produkcję treści naruszających godność i prywatność osób, w tym dzieci – zwróciła uwagę Rzeczniczka Praw Dziecka.

Badania nad szkodliwym zjawiskiem

Zjawisko tworzenia materiałów CSAM przez aplikacje wykorzystujące prawdziwe zdjęcia przeniknęło do codziennych doświadczeń młodych ludzi, na co wskazują badania amerykańskiej organizacji pozarządowej Thorn. Jej raport pokazuje, że deepfake nudes nie są marginalnym zjawiskiem, lecz elementem szerszej kultury cyfrowej, w której małoletni zarówno stają się pokrzywdzonymi, jak i – często nieświadomie – sprawcami technologicznie wspieranej przemocy seksualnej.

Z kolei z raportu Generative AI: A New Threat for Online Child Sexual Exploitation and Abuse opracowanego w 2024 r. przez Bracket Foundation i Value for Good GmbH we współpracy z Międzyregionalnym Instytutem Badań nad Przestępczością wynika, że generatywna sztuczna inteligencja jest wykorzystywana do tworzenia materiałów o charakterze seksualnego wykorzystania dzieci nie tylko przez użytkowników końcowych, lecz także w wyniku wadliwych procesów trenowania modeli sztucznej inteligencji, które mogą tworzyć realistyczne wizerunki małoletnich w sytuacjach seksualnych w odpowiedzi na zwykłe zapytania tekstowe użytkowników.

 W ocenie Rzeczniczki ustalenia zawarte w badaniach prowadzą do wniosku, że wykorzystanie narzędzi AI do tworzenia lub modyfikowania wizerunków o charakterze seksualnym stanowi realne i szybko narastające zagrożenie dla dzieci.

W Polsce problem wykorzystywania AI do seksualizacji wizerunku dzieci także jest aktualny.

Potrzebne jasne przepisy

W ocenie Moniki Horna-Cieślak przepisy prawa m.in. Rozporządzenia Parlamentu Europejskiego i Rady (UE) 2022/2065 z 19 października 2022 r. w sprawie jednolitego rynku usług cyfrowych oraz zmiany dyrektywy 2000/31/WE (Akt o Usługach Cyfrowych) nie zapewniają wystarczającej ochrony dzieci w kontekście korzystania z aplikacji i usług wykorzystujących generatywną sztuczną inteligencję.

Dlatego Rzeczniczka zwróciła się do MC z wnioskiem o rozważenie inicjatywy legislacyjnej mającej na celu wprowadzenie przepisów, które mogłyby zakazać oferowania w Polsce usług informatycznych, których oczywistym celem jest umożliwienie tworzenia lub modyfikowania wizerunków osób przy użyciu generatywnej sztucznej inteligencji w sposób prowadzący do ujawnienia lub symulacji nagości, w tym tworzenia wizerunków osób przedstawiających je podczas obcowania płciowego, poddawania się innej czynności seksualnej lub wykonywania takiej czynności, niezależnie od stopnia przetworzenia materiału źródłowego oraz intencji użytkownika.

RPD prosiła również o nałożenie na dostawców usług obowiązku przeprowadzenia oraz publicznego udostępnienia analizy ryzyka wykorzystania oferowanych usług do tworzenia treści o charakterze (Child Sexual Abuse Material „CSAM”) lub seksualizowania wizerunku dzieci. Wskazała też na potrzebę wdrożenia odpowiednich, skutecznych środków technicznych i organizacyjnych ograniczających to ryzyko.

Niedopełnienie tych zakazów lub niewykonanie obowiązków przez dostawcę usługi skutkowałoby nałożeniem administracyjnej kary pieniężnej, której wysokość byłaby odstraszająca i adekwatna do skali naruszenia.

Apel o powołanie zespołu

Rzeczniczka postulowała też o powołanie zespołu roboczego z udziałem przedstawicieli Ministerstwa Cyfryzacji, Ministerstwa Sprawiedliwości, Urzędu Ochrony Danych Osobowych, Rzecznika Praw Dziecka oraz Naukowej i Akademickiej Sieci Komputerowej – Państwowego Instytutu Badawczego (NASK), którego zadaniem byłoby opracowanie spójnej strategii ochrony dzieci przed ryzykami wynikającymi z korzystania z narzędzi generatywnej sztucznej inteligencji.