Понад мільйон дітей за рік стали мішенню для створення сексуальних дипфейків — ЮНІСЕФ

05.02.2026
454 переглядів
1 хв на читання
Щонайменше 1,2 мільйона дітей повідомили, що їхні фото використали для створення сексуальних дипфейків за допомогою ШІ

Зображення понад мільйона дітей в 11 країнах використали для створення сексуальних дипфейків за допомогою штучного інтелекту лише за останній рік.

Про це свідчать нові результати спільного дослідження Дитячого фонду ООН (ЮНІСЕФ), глобальної мережі організацій ECPAT, що борються із сексуальною експлуатацією дітей, та Інтерполу.

«Щонайменше 1,2 мільйона дітей розповіли, що їхні зображення використали для створення сексуальних дипфейків протягом минулого року. У деяких країнах це кожна 25-та дитина — еквівалент однієї дитини у звичайному шкільному класі», — йдеться у заяві ЮНІСЕФ.

У дослідженні наголошується, що інструменти штучного інтелекту дедалі частіше використовуються для створення сексуалізованого контенту за участю дітей, зокрема шляхом «оголення» чи «переодягання».

«Ми маємо говорити чітко: сексуалізовані зображення дітей, створені або змінені за допомогою інструментів ШІ, є матеріалами про сексуальне насильство над дітьми (CSAM). Зловживання за допомогою дипфейків — це реальне насильство, а завдана ними шкода не є вигаданою. Коли використовується зображення або ідентичність дитини, ця дитина безпосередньо стає постраждалою. Навіть без можливості ідентифікувати конкретну особу, такий контент нормалізує сексуальну експлуатацію дітей, підживлює попит на подібні матеріали та створює значні перешкоди для правоохоронних органів у виявленні та захисті дітей, які потребують допомоги», — заявили у Дитячому фонді ООН.

Водночас у низці країн, охоплених дослідженням, діти й самі добре усвідомлюють цей ризик. Так, приблизно дві третини дітей висловили стурбованість тим, що штучний інтелект може бути використаний для створення дипфейків.

Згідно з отриманими даними, рівень занепокоєння сильно відрізняється залежно від країни, що свідчить про нагальну потребу в підвищенні обізнаності, профілактиці та заходах захисту.

У зв’язку з цим ЮНІСЕФ закликав до термінових дій для протидії ескалації загрози сексуального насильства над дітьми за допомогою ШІ. Зокрема, уряди всіх країн мають розширити визначення матеріалів про сексуальне насильство над дітьми (CSAM), включивши до них контент, створений ШІ, та криміналізувати його створення, придбання, володіння та розповсюдження.

Розробникам слід впроваджувати надійні запобіжні заходи для запобігання неналежному використанню моделей ШІ, а цифровим компаніям — не допускати поширення матеріалів про сексуальне насильство над дітьми, створених ШІ, а не просто видаляти їх після виявлення факту порушення. Також ЮНІСЕФ переконаний в необхідності збільшення інвестицій в технології розпізнавання та модерації контенту.

«Шкода від дипфейків реальна та невідкладна. Діти не можуть чекати, поки закон нарешті наздожене технологічний прогрес», — резюмували в ЮНІСЕФ.

 

Фото: Karolina Grabowska: Pexels