Deepfake zagraża dzieciom. Przedstawicielka RPD na posiedzeniu komisji

Posiedzenie komisji sejmowej

Podczas komisji 17 grudnia 2025 r. rozmawiano na temat ochrony małoletnich w sieci, technologii deepfake w kontekście bezpieczeństwa, ochrony wizerunku oraz danych osobowych.

Sharenting

Na początku posiedzenia posłowie bez sprzeciwu przyjęli projekt dezyderatu w sprawie zwiększenia ochrony wizerunku małoletnich w przestrzeni cyfrowej oraz kompleksowego uregulowania kwestii sharentingu, w tym zasad publikowania treści z udziałem małoletnich, ochrony ich danych osobowych oraz pracy małoletnich w internecie.

Głos RPD

Katarzyna Hernandez zwróciła uwagę na fakt, że aplikacje produkujące szkodliwe deepfake, w tym deepnude zostały stworzone przeciwko młodym osobom, przeciwko dziewczętom. Dlatego Rzeczniczka Praw Dziecka w październiku apelowała do Ministra Cyfryzacji o to, by zobligować platformy umożliwiające produkowanie materiałów CSAM, aby nie dopuszczały do modyfikowania zdjęć dzieci i osób młodych.

Dyrektorka Zespołu Edukacji Cyfrowej i Bezpieczeństwa w Sieci wskazała, że w wystąpieniu generalnym Rzeczniczka Praw Dziecka prosiła o wpisanie tego typu stron i aplikacji na listę stron zakazanych. RPD apelowała o utworzenie międzysektorowej grupy roboczej, której celem będzie wypracowanie rozwiązań odpowiadających wyzwaniom związanym z deepfake. Zadeklarowała pełne wsparcie w tym zakresie.

Stanowisko UODO

Swoje działania w zakresie treści generowanych prze AI przestawił również Mirosław Wróblewski, prezes UODO. Wskazał, że obowiązujące dziś w Polsce i na świecie przepisy nie są dostosowane do specyfiki technologii deepfake i treści generowanych przez AI. Nie zapewniają odpowiedniej ochrony prawnej m.in. przed kradzieżą tożsamości, szantażem czy nękaniem, oszustwami czy ukazywaniem ludzi w sytuacjach, które nie miały faktycznie miejsca. Konieczne jest więc wprowadzenie przepisów prawa, które będą bezpośrednio odnosić się do szkodliwych treści w postaci deepfakeów.

Kradzież tożsamości

Przedstawiciel Ministerstwa Sprawiedliwości mówił, że Kodeks karny w pewnym zakresie odnosi się do problemu deepfakeów. Przykładem jest art. 190a par. 2. Przepis ten, choć umiejscowiony w regulacji dotyczącej tzw. stalkingu, czyli uporczywego nękania, w rzeczywistości dotyczy kradzieży tożsamości, a więc podszywania się pod inną osobę. Kolejną istotną regulacją jest art. 202 Kodeksu karnego. Dotyczy przestępstw pornograficznych. Przepis ten stanowi, że kto produkuje, rozpowszechnia, prezentuje, przechowuje lub posiada treści pornograficzne przedstawiające wytworzony lub przetworzony wizerunek małoletniego uczestniczącego w czynności seksualnej, podlega karze pozbawienia wolności do lat trzech.

Tylko 30 proc. młodych zna i rozumie pojęcie deepfake’ów

Zgodnie z wynikami raportu „Nastolatki” – ogólnopolskiego badania uczniów i rodziców, zrealizowanego w ramach programu Ogólnopolskiej Sieci Edukacyjnej (OSE), 70 proc. uczniów deklaruje korzystanie z narzędzi opartych na AI, jednak jedynie co trzeci respondent wskazuje, że zna i rozumie pojęcie deepfake’ów.

Przedstawiciel NASK Maciej Siciarek przypomniał, że trwają prace nad projektem ustawy o ochronie małoletnich przed dostępem do treści szkodliwych w internecie. Na obecnym etapie zakres tej regulacji został ograniczony do treści pornograficznych. Projekt jest obecnie analizowany po uwagach zgłoszonych w konsultacjach społecznych.