Британське національне товариство запобігання жорстокому поводженню з дітьми (NSPCC) звинуватило компанію Apple у приховуванні кількості зображень та відео, що містять сексуальне насильство над дітьми, у своїх продуктах.
Як повідомляє The Guardian, згідно з даними поліції, отриманими NSPCC, лише в Англії та Уельсі виявлено більше випадків використання Apple iCloud, iMessage та Facetime для зберігання та обміну матеріалами, що містять сексуальне насильство над дітьми, ніж вказано у звіті компанії в усіх інших країнах разом узятих.
Усі американські технологічні компанії зобов’язані повідомляти до Національного центру зниклих безвісти та експлуатованих дітей (NCMEC) про всі випадки сексуального насильства, які вони виявляють на своїх платформах. Організація зі штаб-квартирою у Вірджинії діє як центр обміну повідомленнями про жорстоке поводження з дітьми з усього світу, переглядає їх і надсилає до відповідних правоохоронних органів.
У 2023 році Apple надіслала 267 повідомлень про підозру в сексуальному насильстві над дітьми на її платформах у всьому світі до NCMEC, що різко контрастує з даними інших великих технологічних компаній: Google повідомила про понад 1,47 мільйона, а Meta — про більш ніж 30,6 мільйона.
Національне товариство запобігання жорстокому поводженню з дітьми встановило, що лише в Англії та Уельсі в період з квітня 2022 року до березня 2023-го було зареєстровано 337 правопорушень із зображеннями жорстокого поводження з дітьми, для вчинення яких використовувалися сервіси Apple.
«Існує тривожна розбіжність між кількістю злочинів із зображеннями жорстокого поводження з дітьми у Великій Британії, що мають місце в службах Apple, і майже незначною кількістю глобальних повідомлень про контент із насильством, які вони надсилають владі. Apple явно відстає від багатьох своїх колег у боротьбі з сексуальним насильством над дітьми, коли всі технологічні фірми повинні інвестувати в безпеку та готуватися до впровадження закону про безпеку в інтернеті у Британії», — сказав керівник відділу політики безпеки дітей в інтернеті NSPCC Річард Коллард.
The Guardian зазначило, що Apple відмовилася коментувати цю інформацію. Натомість компанія звернула увагу видання на заяви, зроблені в серпні минулого року, в яких йшлося, що вона вирішила не продовжувати роботу над програмою, яка сканує фотографії iCloud на предмет сексуального насильства над дітьми, оскільки замість цього вона обрала шлях, який «надає пріоритет безпеці та конфіденційності [своїх] користувачів».
Йдеться про інструмент neuralMatch, що сканував би зображення перед завантаженням в онлайн-сховище фотографій iCloud, порівнюючи їх із базою даних відомих зображень жорстокого поводження з дітьми за допомогою цифрових відбитків пальців, відомих як хеш-значення. Тоді правозахисники у галузі цифрових прав висловили занепокоєння, що програма неминуче буде використана для компрометації конфіденційності та безпеки всіх користувачів iCloud. Прихильники безпеки дітей засудили скасування цієї функції.
«Apple взагалі не виявляє випадків сексуального насильства над дітьми в більшості своїх середовищ. Вони явно занижують звітність і не інвестували в групи довіри та безпеки, щоб мати змогу впоратися з цією проблемою. Apple — це чорна діра», — розповіла виконавча директорка некомерційної організації Heat Initiative, що займається захистом дітей, Сара Гарднер.
У зв’язку з цим експерти з безпеки дітей занепокоєні щодо того, як компанія може впоратися зі зростанням обсягу такого контенту, що пов’язано зі штучним інтелектом, особливо після оголошення Apple про запуск системи ШІ Intelligence.
«Створені штучним інтелектом матеріали про жорстоке поводження з дітьми наражають дітей на небезпеку та впливають на здатність поліції захищати маленьких жертв, особливо тому, що Apple відкинула впровадження технології для захисту дітей», — зауважив Коллард.
У 2023 році NCMEC отримав понад 4700 повідомлень про матеріали, що містять сексуальне насильство над дітьми, створені штучним інтелектом, і заявив, що очікує на зростання кількості таких повідомлень у майбутньому.
- За даними ініціативи Единбурзького університету Childlight, понад 300 мільйонів дітей у всьому світі щорічно стикаються із сексуальною експлуатацією та насильством в інтернеті.
- Журналісти BBC з’ясували, що технологію штучного інтелекту використовують для створення та продажу дитячого порно у промислових масштабах, зокрема контенту з реалістичним зображенням сексуального насильства над дітьми, і навіть зґвалтування немовлят і дітей раннього віку.
- Раніше DIVOCHE.MEDIA розповідало, куди звертатися по допомогу у випадку, якщо людина постраждала від інтернет-насильства.
Фото: Andrea Piacquadio: Pexels