VNews.com.ua

Что по модерации? В Mastodon нашли сотни публикаций с сексуальным насилием над детьми

Июль 25
13:43 2023

Интернет-обсерватория Стэндфордского университета обнаружила 112 случаев сексуального насилия (причем первый через 5 минут после начала поиска) в 325 000 публикациях на Mastodon в течение двухдневного исследования.

Исследователи просканировали 25 самых популярных экземпляров (серверов) Mastodon на наличие CSAM – материалов о сексуальном насилии над детьми или изображений, которые показывают сексуальное насилие и эксплуатацию детей. Для поиска использовали инструмент для обнаружения откровенных изображений Google SafeSearch API и инструмент, помогающий находить материалы, обозначенные как CSAM, PhotoDNA.

Команда также идентифицировала 554 фрагмента контента, которые совпадали с хештегами или ключевыми словами, часто использующимися в группах сексуального насилия над детьми в интернете, и все они были определены как откровенные с «высокой степенью достоверности» Google SafeSearch.

Выявлено еще 713 случаев использования 20 самых популярных хештегов, связанных со CSAM, в публикациях, содержащих медиа, а также 1217 текстовых публикаций, указывающих на «торговлю CSAM вне сайта или груминг несовершеннолетних».

В исследовании отмечается, что материалы с изображением сексуального насилия распространяются в сети с тревожной тенденцией.

Ранее в этом месяце на сервере mastodon.xyz произошел длительный сбой из-за опубликованного CSAM. В сообщении об инциденте администратор сервера заявил, что их известили о контенте, содержащем образы сексуального насилия – но модерацию он может приводить только в свое свободное время, что может занять несколько дней. Позже появилось заявление об удалении противоречивого контента, однако сервер все равно был недоступен для пользователей. Впоследствии администратор mastodon.xyz сказал, что регистратор добавил домен в список «ложно положительных», чтобы предотвратить удаление в будущем.

«За два дня мы получили больше уведомлений PhotoDNA, чем, возможно, за всю историю наших проверок. Такие результаты, вероятно, вызваны отсутствием инструментов, которые централизованные платформы социальных сетей используют для решения проблем безопасности детей», — сказал исследователь Дэвид Тиль.

Модерация в децентрализованных сетях действительно несколько отличается от подхода таких сайтов, как Facebook, Instagram и Reddit. Каждый экземпляр самостоятельно контролирует модерацию, что создает несогласованность в Fediverse. Исследователи предлагают, чтобы такие сети использовали более надежные инструменты вместе с интеграцией PhotoDNA и отчетами CyberTipline.

В то же время, на фоне ребрендинга Twitter Mastodon наблюдает рост активности. Основатель и гендиректор сети Евгений Рочко говорит, что количество ежемесячных активных пользователей неуклонно росло в последние несколько месяцев и сейчас достигло 2,1 млн. человек.

О максимуме в 2,5 млн Mastodon отчитывался в октябре-ноябре — в то время, когда Илон Маск завладел Twitter. До этого у сети было около 300 000 активных пользователей ежемесячно.

Педофилы используют нейросети для создания детской порнографии — на форумах в даркнете обнаружены тысячи таких изображений

Источник: The Verge

Share

Статьи по теме

Последние новости

США планируют развернуть в Японии ракетные системы Typhoon

Читать всю статью

Наши партнёры

UA.TODAY - Украина Сегодня UA.TODAY

Всегда на пути к успеху: EA-LOGISTIC – ваш проводник в международных грузоперевозках.