Сюжеты · Общество

Искусственный интеллект используется для создания видео с сексуализированным насилием над детьми

Internet Watch Foundation сообщает, что часть контента основывается на реальных роликах. Поговорили с авторами доклада

Любовь Борисенко, специально для «Новой газеты Европа»

Фото: Kasia Derenda / Unsplash

Развитие искусственного интеллекта повлияло на количество картинок и видео с сексуализированным насилием над детьми в интернете, выяснили аналитики Internet Watch Foundation. В их докладе говорится, что за последний год они обнаружили тысячи подобных изображений в даркнете и открытом доступе. Законодательство Великобритании и других стран до сих пор не предусматривает наказания за создание подобного контента.

«Новая-Европа» рассказывает, о чем говорится в докладе.

В тексте описываются сцены сексуализированного насилия над детьми. Просим впечатлительных людей воздержаться от прочтения.

Доклад

Internet Watch Foundation (IWF) — британская некоммерческая организация, которая пресекает распространение контента с сексуализированным насилием над детьми в Интернете. В частности, сотрудники компании помогают жертвам, ища и удаляя любые записи, сделанные во время преступлений. 22 июля IWF обновил свой доклад о том, как связаны искусственный интеллект и производство изображений с сексуализированным насилием.

Сотрудники организации обнаружили, что в Интернете значительно выросло число невероятно реалистичных дипфейков или частично модифицированных видео с изнасилованиями и пытками несовершеннолетних. За последний год темпы развития ИИ в этой сфере не замедлились, а преступники стали использовать «более совершенные, быстрые и доступные инструменты для создания новых изображений и видео». Большинство из них, как объяснили «Новой-Европа» в IWF, хранятся в даркнете, но часть можно найти и свободном доступе. 

Во время работы было проанализировано более 12 тысяч сгенерированных ИИ изображений, размещенных на одном из форумов в даркнете. Сотрудники IWF сделали вывод, что 90% из оказались настолько убедительны, что их можно было оценивать по тому же закону, что и настоящие видео. 

Отмечается, что благодаря технологиям у преступников есть возможность сгенерировать буквально любой сценарий, который они сами придумают. На одном из сайтов в даркнете подобное объявление звучит так: 

«[можем] создавать любое детское порно по вашему желанию в высоком разрешении».

Многие из этих изображений продавались преступниками в открытом доступе под видом реальных роликов. 

Технологии и жертвы 

В сравнении с октябрем 2023 года на 10% (до 32%) выросло число видео с изображением проникающего секса, скотоложства или садизма. Некоторые из поддельных роликов содержат взрослую порнографию, на которой изображено лицо ребенка. Другие — уже существующие сцены с сексуализированным насилием над детьми, на которые наложено лицо другого ребенка. По словам аналитиков IWF, «поскольку в оригинальных видео с сексуальным насилием участвуют реальные дети, подделки выглядят особенно убедительно». Также эксперты обнаружили первые полностью искусственные ролики. 

В открытом доступе эксперты организации нашли подобное 18-секундное видео, полностью сгенерированное ИИ, на котором взрослый мужчина насилует девочку. Видео «мерцает и глючит», но аналитики описывают действия в ролике как четкие и непрерывные.

Отмечается, что хотя полностью искусственно созданные кадры до сих пор не выглядят «идеально», чтобы их можно было выдавать за снятые вживую, это «худшее» из того, что еще будет создано. Достижения в области искусственного интеллекта вскоре позволят делать более реалистичные видео, подобно тому как уже развилась подобная сфера со статичными изображениями.

«Если раньше некоторые сценарии, генерируемые искусственным интеллектом, было сложно изобразить с большой реалистичностью, то теперь мы видим, как преступники успешно генерируют более экстремальные, «жесткие» псевдофотографии сексуального насилия над детьми.

Эти сложные сцены обычно демонстрируют проникновение и включают в себя более одного человека», — заявил аналитик IWF Алекс.

Дипфейки также очень трудно отделить от «настоящих» материалов о сексуализированном насилии даже под пристальным взглядом аналитиков. Иногда эксперты определяли разницу только потому, что узнавали жертву в лицо. 

«Влияние изображений на жертв невозможно переоценить. Когда создаются фото или видео сексуализированного насилия над детьми, постоянство и отсутствие контроля над тем, кто их видит, создает значительные и долгосрочные последствия для тех, кто пережил это. Они подвергаются повторной виктимизации каждый раз, когда [эти кадры] просматривают, и с изображениями ИИ та же ситуация», — отметила руководитель «Фонда Мари Коллинз» Виктория Грин.

По ее словам, знание того, что преступники теперь могут использовать легкодоступные ИИ-технологии для создания и распространения новых материалов о совершенном насилии, «не только отвратительно для жертв и пострадавших, но и вызывает огромную тревогу». На одном из сайтов в даркнете аналитики уже обнаружили настроенные модели для генерации контента с 128 настоящими жертвами сексуализированного насилия. В списке также указаны их реальные имена.

«Пережившие некоторые из худших видов травм теперь не знают передышки, понимая, что преступники могут использовать изображения их страданий, чтобы создать любой сценарий насилия, который они хотят», — подчеркнула генеральный директор фонда Internet Watch Сьюзи Харгривз.

Законодательство

Несмотря на активное распространение подобных видео, до сих пор не существует закона, контролирующего этот процесс. Официально в Великобритании не предусмотрено наказание за создание ИИ-видео с насилием над детьми. 

«Правильные решения, принятые сейчас правительством, технологической индустрией и гражданским обществом, чтобы гарантировать, что безопасность детей является приоритетом при разработке инструментов ИИ, могут предотвратить разрушительное воздействие, которое неправильное использование этой технологии окажет на глобальную защиту детей», — заявила Харгривз.

Виктория Грин подчеркивает, что пострадавшие имеют право не жить в страхе перед повторной виктимизацией с помощью технологий, которые по замыслу должны быть безопасными. IWF призывают криминализировать распространение подобного контента и инструкций по его созданию. Авторы доклада отправили его копию правительству для ознакомления и рассчитывают, что власти не оставят эту проблему без внимания.