VNews.com.ua

Яд для искусственного интеллекта: инструмент Nightshade добавляет в работы художников невидимые пиксели, которые повреждают генеративные модели

Октябрь 24
20:41 2023

Пиксели «отравляют‎» генеративную модель в случае незаконного использования изображений и нарушают ее работу.

Помогаем

Поможем врагу с билетами на кобзона. Собираем на Mavic для наших защитников

На фоне многочисленных судебных исков художников OpenAI, Meta, Google и Stability AI, команда Чикагского университета разработала собственный инструмент для борьбы за авторское право.

Nightshade позволяет художникам добавить на свои работы невидимые пиксели перед публикацией в интернете, и если «отравленное» изображение попадет в учебные данные такой модели, как DALL-E, Midjourney или Stable Diffusion, то вся их работа может нарушиться — собаки в результатах могут превратиться в кошек, а машины в коров и т.д.

Отрута для штучного інтелекту: інструмент Nightshade додає у твори художників невидимі пікселі, які пошкоджують генеративні моделі
Результаты, которые выводятся в зависимости от количества добавленных отравленных изображений.

Отравленные данные очень трудно удалить, поскольку это требует тщательного поиска и удаления каждого поврежденного образца.

Команда также разработала инструмент Glaze, позволяющий художникам «маскировать» свой личный стиль, чтобы предотвратить его использование компаниями искусственного интеллекта. Он работает подобно Nightshade: изменяя пиксели изображений тонкими способами, невидимыми для человеческого глаза, и манипулирует моделями машинного обучения, чтобы интерпретировать изображение как нечто отличное от того, что оно действительно показывает.

Отрута для штучного інтелекту: інструмент Nightshade додає у твори художників невидимі пікселі, які пошкоджують генеративні моделі

Nightshade в дальнейшем выпустят с открытым кодом, поэтому разработчики смогут усовершенствовать инструмент и создать собственные версии — от этого он станет мощнее, считают исследователи.

Инструмент протестировали на последних моделях Stable Diffusion и модели ИИ, которую обучили с нуля. Когда модель Stability AI получила 50 «отравленных» изображений собак, ее результаты стали выглядеть странно — имели слишком много конечностей или мультяшные лица.

Руководитель команды, профессор Бен Чжао, признает риски того, что технологию могут использовать злоумышленники, однако говорит, что им понадобятся «‎тысячи отравленных образцов, чтобы нанести реальный ущерб» большим и мощным моделям, обучающимся на миллиардах образцов данных.

Джунфен Янг, профессор информатики в Колумбийском университете, изучавший безопасность систем глубокого обучения и не участвовавший в работе, говорит, что Nightshade может заставить ИИ-компании проявлять больше уважения к художникам и побуждать к выплате роялти.

Источник: Engadget, MIT Technology Review

Share

Статьи по теме

Последние новости

Украинцам назвали причины подорожания картофеля: какой цены ждать в 2025 году

Читать всю статью

Наши партнёры

UA.TODAY - Украина Сегодня UA.TODAY

Всегда на пути к успеху: EA-LOGISTIC – ваш проводник в международных грузоперевозках.