Polskie prawo karne należy do najbardziej restrykcyjnych na świecie, jeśli chodzi o zwalczanie pornografii dziecięcej, jednak w praktyce nie zawsze zapewnia ofiarom ochronę przed nowymi formami przemocy seksualnej w internecie – oceniła w rozmowie z PAP Amanda Krać-Batyra. Jej zdaniem problemem nie jest brak przepisów, lecz sposób ich stosowania przez organy ścigania, które nie nadążają za rozwojem technologii, w tym narzędzi opartych na sztucznej inteligencji (AI).
Jako przykład wskazała sprawę uczennicy z Mazowsza, której wizerunek wykorzystano do stworzenia pornograficznych materiałów typu deepfake. Postępowanie zostało początkowo umorzone, mimo że Kodeks karny penalizuje nie tylko rozpowszechnianie, ale również posiadanie treści pornograficznych z udziałem małoletnich, także w formie animacji czy materiałów wytworzonych lub przetworzonych cyfrowo.
– Zawiodło przede wszystkim stosowanie prawa, a nie jego brak. Organy ścigania bardzo często patrzyły na takie sprawy wyłącznie przez pryzmat jednego przepisu i jeśli uznawały, że nie spełnia on wszystkich znamion przestępstwa, postępowanie było umarzane – powiedziała Krać-Batyra.
Wyjaśniła, że kluczowy problem dotyczy interpretacji przepisów odnoszących się do pornografii dziecięcej, które wymagają, by małoletni był przedstawiony w trakcie czynności seksualnej. W praktyce oznacza to, że nawet fotorealistyczne, nagie wizerunki dzieci wygenerowane przez AI mogą nie zostać uznane za przestępstwo, jeśli nie przedstawiają konkretnego aktu seksualnego. W jej ocenie jest to jedna z najpoważniejszych luk systemowych.
Zaznaczyła, że w sprawie z Mazowsza istniały podstawy do zastosowania innych przepisów, m.in. dotyczących bezprawnego utrwalania i rozpowszechniania wizerunku osoby bez jej zgody, zwłaszcza w kontekście seksualnym i wobec osoby małoletniej.
Przywołała także inne przypadki ze swojej praktyki biegłej: posiadanie realistycznych grafik AI przedstawiających nagie dzieci, problemy z ustaleniem, czy materiały przedstawiają realne dzieci, oraz konieczność identyfikacji ofiar i objęcia ich ochroną.
Zwróciła uwagę na sprawę znaną pod kryptonimem „Różowa piżamka”, która ujawniła skalę internetowych sieci przestępczych wykorzystujących dzieci, w tym czaty wideo, manipulację i archiwizowanie materiałów.
Podkreśliła, że treści wytwarzane przez AI stanowią poważne zagrożenie: normalizacja przemocy seksualnej wobec dzieci, eskalacja zachowań przestępczych, rosnąca skala zjawiska oraz fakt, że duża część przestępczości odbywa się w otwartym internecie, a nie tylko w darknecie.
W jej ocenie realną poprawę ochrony dzieci mogłoby przynieść wprowadzenie skutecznej odpowiedzialności prawnej platform internetowych i realnych konsekwencji dla globalnych firm technologicznych za treści publikowane i rozpowszechniane na ich platformach.
Mira Suchodolska (PAP)












![Dziś w kraju i na świecie ([niedziela, 1 lutego]) Dziś w kraju i na świecie ([niedziela, 1 lutego])](https://static2.nasztomaszow.pl/data/articles/sm-4x3-dzis-w-kraju-i-na-swiecie-niedziela-1-lutego-1769893141.png)




















![Dziś w kraju i na świecie ([niedziela, 1 lutego])](https://static2.nasztomaszow.pl/data/articles/sm-16x9-dzis-w-kraju-i-na-swiecie-niedziela-1-lutego-1769893141.png)
































Napisz komentarz
Komentarze