Зображення понад мільйона дітей в 11 країнах використали для створення сексуальних дипфейків за допомогою штучного інтелекту лише за останній рік.
Про це свідчать нові результати спільного дослідження Дитячого фонду ООН (ЮНІСЕФ), глобальної мережі організацій ECPAT, що борються із сексуальною експлуатацією дітей, та Інтерполу.
«Щонайменше 1,2 мільйона дітей розповіли, що їхні зображення використали для створення сексуальних дипфейків протягом минулого року. У деяких країнах це кожна 25-та дитина — еквівалент однієї дитини у звичайному шкільному класі», — йдеться у заяві ЮНІСЕФ.
У дослідженні наголошується, що інструменти штучного інтелекту дедалі частіше використовуються для створення сексуалізованого контенту за участю дітей, зокрема шляхом «оголення» чи «переодягання».
«Ми маємо говорити чітко: сексуалізовані зображення дітей, створені або змінені за допомогою інструментів ШІ, є матеріалами про сексуальне насильство над дітьми (CSAM). Зловживання за допомогою дипфейків — це реальне насильство, а завдана ними шкода не є вигаданою. Коли використовується зображення або ідентичність дитини, ця дитина безпосередньо стає постраждалою. Навіть без можливості ідентифікувати конкретну особу, такий контент нормалізує сексуальну експлуатацію дітей, підживлює попит на подібні матеріали та створює значні перешкоди для правоохоронних органів у виявленні та захисті дітей, які потребують допомоги», — заявили у Дитячому фонді ООН.
Водночас у низці країн, охоплених дослідженням, діти й самі добре усвідомлюють цей ризик. Так, приблизно дві третини дітей висловили стурбованість тим, що штучний інтелект може бути використаний для створення дипфейків.
Згідно з отриманими даними, рівень занепокоєння сильно відрізняється залежно від країни, що свідчить про нагальну потребу в підвищенні обізнаності, профілактиці та заходах захисту.
У зв’язку з цим ЮНІСЕФ закликав до термінових дій для протидії ескалації загрози сексуального насильства над дітьми за допомогою ШІ. Зокрема, уряди всіх країн мають розширити визначення матеріалів про сексуальне насильство над дітьми (CSAM), включивши до них контент, створений ШІ, та криміналізувати його створення, придбання, володіння та розповсюдження.
Розробникам слід впроваджувати надійні запобіжні заходи для запобігання неналежному використанню моделей ШІ, а цифровим компаніям — не допускати поширення матеріалів про сексуальне насильство над дітьми, створених ШІ, а не просто видаляти їх після виявлення факту порушення. Також ЮНІСЕФ переконаний в необхідності збільшення інвестицій в технології розпізнавання та модерації контенту.
«Шкода від дипфейків реальна та невідкладна. Діти не можуть чекати, поки закон нарешті наздожене технологічний прогрес», — резюмували в ЮНІСЕФ.
- Нещодавно чат-бот Grok на платформі X викрили у створенні сексуалізованих зображень реальних людей, включаючи неповнолітніх. Хоча власник платформи Ілон Маск заявив про введення обмежень та запевнив, що особи, «які використовують Grok для створення незаконного контенту, зазнають тих самих наслідків, що й у разі завантаження незаконного контенту», чинне законодавство США досі фактично звільняє соцмережі від відповідальності за контент, створений користувачами. Європейська комісія розпочала офіційне розслідування щодо Grok через створення та поширення дипфейків. Тим часом Grok продовжує «роздягати» людей без їхньої згоди.
- Раніше журналісти BBC з’ясували, що технологію штучного інтелекту використовують для створення та продажу дитячого порно у промислових масштабах, зокрема контенту з реалістичним зображенням сексуального насильства над дітьми, і навіть зґвалтування немовлят і дітей раннього віку.
Фото: Karolina Grabowska: Pexels