Fundacja Internet Watch Foundation (IWF)to organizacja charytatywna pomagająca wykrywać i usuwać w Internecie obrazy przedstawiające wykorzystywanie seksualne dzieci.
IWF opublikowała raport roczny za 2023 r., w którym podała, że odkryła ponad dwa tysiące zdalnie filmowanych przypadków wykorzystywania dzieci w wieku od trzech do sześciu lat w Internecie w 2023 r.
Po raz pierwszy organizacja charytatywna przeanalizowała dane z całego roku dotyczące wykorzystywania dzieci w wieku od trzech do sześciu lat i stwierdziła, że te małe dzieci były celem ataków online na telefonach i urządzeniach w domu rodzinnym. „Są one przygotowywane, zmuszane, a w niektórych przypadkach szantażowane do angażowania się w zachowania seksualne. Nigdy nie można ich winić za stworzenie lub istnienie tych zdjęć”.
Większość zdjęć przedstawiała dzieci w otoczeniu domowym, a najczęściej w sypialni dziecka. W tle analitycy widzieli miękkie zabawki, gry, książki i pościel z postaciami z kreskówek.
„Są to bardzo małe dzieci, rzekomo przebywające w bezpiecznych sypialniach, prawdopodobnie nieświadome tego, że czynności, do których są zmuszane, są nagrywane i zapisywane, a ostatecznie wielokrotnie udostępniane w Internecie” – czytamy w raporcie.
„Wszystkie” samodzielnie wygenerowane „zdjęcia przedstawiające seksualne wykorzystywanie dzieci są przerażające, ale widok tak wielu bardzo małych dzieci na tych zdjęciach i filmach jest szczególnie niepokojący”
Liczba „samodzielnie wygenerowanych” zdjęć przedstawiających seksualne wykorzystywanie dzieci wzrosła o 27% w ciągu jednego roku. Są one tworzone przez sprawcę, który zdalnie kieruje ofiarą i nagrywa ją za pomocą kamer internetowych.
„Termin” samodzielnie wygenerowany „nie oznacza, że dziecko samo inicjuje tworzenie tych treści seksualnych” – stwierdzili autorzy raportu. Prawie co siódme zdjęcie należało do kategorii A, czyli oceny przyznawanej obrazom przedstawiającym najpoważniejsze molestowanie. Sześć na 10 zdjęć przedstawiało „seksualne pozowanie nago”, jak sugerowano.
Dzieci były „całkowicie nieświadome”, że są nagrywane.
Analitycy IWF mają pewność, że ktoś inny kierował tym, co się wydarzyło, ponieważ dzieci w wieku od trzech do sześciu lat „są naiwne seksualnie i normalnie nie byłyby świadome możliwości tego rodzaju zachowań seksualnych”
W odpowiedzi na raport Minister Bezpieczeństwa Tom Tugendhat wezwał firmy technologiczne do podjęcia dalszych wysiłków w celu zapobiegania nadużyciom.
Wezwał także rodziców, aby „rozmawiali z dziećmi na temat korzystania z mediów społecznościowych, ponieważ platformy, które uważacie za bezpieczne, mogą stwarzać ryzyko”. Z raportu wynika, że prawie jedna czwarta dzieci w wieku od pięciu do siedmiu lat ma własny smartfon.
W zeszłym tygodniu Ofcom opublikował raport pokazujący, że ponad 40% rodziców dzieci w wieku od pięciu do siedmiu lat twierdzi, że korzysta z mediów społecznościowych ze swoim dzieckiem, podczas gdy jedna trzecia przyznała, że ich dziecko korzysta z mediów społecznościowych niezależnie.
Ian Critchley, który w Radzie Szefów Policji Krajowej stoi na czele ds. ochrony dzieci, powiedział, że ochrona małych dzieci nie jest wyłącznie obowiązkiem rodziców i opiekunów. „Największa zmiana” powinna nastąpić w firmach technologicznych i platformach internetowych, powiedział.
W ramach prac wdrażających nową ustawę o bezpieczeństwie w Internecie organ ds. komunikacji zapowiedział, że przeprowadzi konsultacje w sprawie wykorzystania zautomatyzowanych narzędzi, w tym sztucznej inteligencji, do „proaktywnego wykrywania” nielegalnych treści, w tym materiałów przedstawiających wykorzystywanie seksualne dzieci.
IWF wzywa jednak do szybkich działań i argumentuje, że firmy technologiczne nie powinny czekać.
„Dzieciom przydarzają się teraz krzywdy i nasza reakcja musi być natychmiastowa” – powiedziała dyrektor naczelna Susie Hargreaves.
Niektóre duże firmy technologiczne wykorzystują już sztuczną inteligencję do identyfikowania treści naruszających warunki, w tym materiałów przedstawiających wykorzystywanie dzieci.
Służy to głównie do identyfikacji materiału, który jest następnie przeglądany przez moderatorów.
Eksperci ostrzegają jednak, że sama sztuczna inteligencja nie jest panaceum. Profesor Alan Woodward z Uniwersytetu w Surrey powiedział BBC: „Sztuczna inteligencja może okazać się przydatna w ograniczaniu skali analizowanych danych, ale na obecnym etapie rozwoju nie należy jej uważać za rozwiązanie kompletne”.
Komentarze do wpisu (0)