Choose Country and Language

Педофилы в темной паутине обращаются к программе искусственного интеллекта для создания материалов о сексуальном насилии

Эксперты призвали законодателей устранить лазейки в действующем законе о материалах, посвященных сексуальному насилию над детьми

Законодатели и эксперты в области технологий бьют тревогу по поводу потенциальных опасностей искусственного интеллекта

Кара Фредерик, директор по технологиям в Heritage Foundation, рассуждает о необходимости регулирования искусственного интеллекта, в то время как законодатели и технологические титаны обсуждают потенциальные риски.

Наблюдательный совет по интернету бьет тревогу в связи с растущей тенденцией сотрудничества сексуальных преступников в сети для использования искусственного интеллекта с открытым исходным кодом для создания материалов о сексуальном насилии над детьми.

"Существует техническое сообщество в среде преступников, особенно на форумах темной паутины, где они обсуждают эту технологию", - сказал Дэн Секстон (Dan Sexton), директор по технологиям Internet Watch Foundation (IWF), в своем отчете The Guardian на прошлой неделе. "Они делятся изображениями, они делятся моделями [ИИ]. Они делятся руководствами и советами"

Организация Секстона обнаружила, что преступники все чаще обращаются к моделям ИИ с открытым исходным кодом, чтобы создавать незаконные материалы о сексуальном насилии над детьми (CSAM) и распространять их в Интернете. В отличие от закрытых моделей ИИ, таких как Dall-E от OpenAI или Imagen от Google, технологии ИИ с открытым исходным кодом могут загружаться и настраиваться пользователями, говорится в отчете. По словам Секстона, способность использовать такую технологию распространилась среди преступников, которые выходят в темную сеть, чтобы создавать и распространять реалистичные изображения.

анимированная фотоиллюстрация AI хакера

Наблюдательная служба Интернета бьет тревогу в связи с растущей тенденцией сотрудничества сексуальных преступников в сети для использования искусственного интеллекта с открытым исходным кодом для создания материалов о сексуальном насилии над детьми. (Fox News / File)

"Контент, который мы видели, по нашему мнению, на самом деле создается с помощью программного обеспечения с открытым исходным кодом, которое загружается и запускается локально на компьютерах людей, а затем изменяется. И эту проблему гораздо сложнее решить", - сказал Секстон. "Его учили, что такое материалы о сексуальном насилии над детьми, и учили, как их создавать"

По словам Секстона, в онлайновых обсуждениях, которые ведутся в темной паутине, фигурируют изображения детей знаменитостей и общедоступные изображения детей. В некоторых случаях изображения жертв насилия над детьми используются для создания совершенно нового контента.

"Все эти идеи вызывают озабоченность, и мы видели, как они обсуждаются", - сказал Секстон.

фотоиллюстрация бизнесмена, использующего чатбота с искусственным интеллектом

По словам Секстона, в онлайновых обсуждениях, которые ведутся в темной паутине, фигурируют изображения детей знаменитостей и общедоступные изображения детей. В некоторых случаях изображения жертв насилия над детьми используются для создания совершенно нового контента.

Кристофер Александр, главный аналитик Pioneer Development Group, сказал Fox News Digital, что одна из новых опасностей этой технологии заключается в том, что она может быть использована для приобщения большего количества людей к CSAM. С другой стороны, ИИ можно использовать для сканирования Интернета в поисках пропавших людей, даже используя "возрастную прогрессию и другие факторы, которые могут помочь найти детей, ставших жертвами торговли людьми"

"Итак, генеративный ИИ - это проблема, ИИ и машинное обучение - это инструмент для борьбы с ней, даже просто путем обнаружения", - сказал Александр.

"Чрезвычайная опасность, создаваемая этой технологией, будет иметь огромные последствия для благополучия Интернета. Там, где эти компании не справляются, Конгресс должен решительно взяться за дело и принять меры по защите детей и Интернета в целом"

Тем временем Джонатан Д. Асконас, доцент кафедры политики и научный сотрудник Центра изучения государственного управления при Католическом университете Америки, сказал Fox News Digital, что "законодатели должны действовать уже сейчас, чтобы укрепить законы против производства, распространения и владения CSAM на основе ИИ, а также закрыть лазейки, оставшиеся с прежних времен"

По словам Секстона, IWF, который ищет в Интернете CSAM и помогает координировать его удаление, может оказаться перегруженным советами по удалению такого контента из Сети в эпоху ИИ, отметив, что распространение таких материалов уже широко распространено в Сети.

"Сексуальное насилие над детьми в Интернете уже, как мы считаем, является эпидемией общественного здравоохранения", - сказал Секстон, по сообщению The Guardian. "Так что это не сделает проблему лучше. Потенциально это только усугубит ее"

Зивен Хейвенс, директор по политике в Bull Moose Project, сказал Fox News Digital, что Конгресс должен принять меры, чтобы защитить и детей, и Интернет.

дневной снимок Капитолия США в Вашингтоне

Зивен Хейвенс, директор по политике в Bull Moose Project, сказал Fox News Digital, что Конгресс должен принять меры для защиты детей и Интернета. (Fox News Photo / Joshua Comins / File)

"Используя уже имеющиеся изображения реальных жертв насилия, искусственный интеллект CSAM мало чем отличается от CSAM, созданного не искусственным интеллектом. Она столь же морально развращена и отвратительна. Чрезвычайная опасность, создаваемая этой технологией, будет иметь огромные последствия для благополучия Интернета", - сказал Хейвенс. "Там, где эти компании не справляются, Конгресс должен решительно взяться за дело и принять меры по защите детей и Интернета в целом"

Автор Michael Lee Источник FoxNews сентября 18th 2023

Stop Child Abuse

There are many ways you can get involved and make a difference to prevent child abuse. Take action and choose what works best for you.