Все пальцы на месте: Stability AI выпускает новую модель Stable Diffusion XL 0.9, генерирующую более реалистичные изображения
Stable Diffusion XL 0.9 намного лучше воспроизводит изображения и детали композиции.
Stability AI говорит, что новая модель – это «большой шаг, или даже скачок в вариантах творческого использования генеративных образов ИИ». Образцы, опубликованные в блоге, показывают разницу между использованием Stable Diffusion XL 0.9 и ее предшественницей Stable Diffusion XL.
На изображении, показывающем человека, держащего чашку кофе, видны более мелкие детали и более реалистичные пальцы (руки с неправильным количеством пальцев довольно часто помогали распознать искусство нейросетей – по крайней мере, до выпуска Midjourney v5).
«Способность создавать гиперреалистические произведения для фильмов, телевидения, музыки и обучающих видео, а также предлагать усовершенствования для дизайна и промышленного использования ставит SDXL в авангард реальных программ для изображений ИИ», – скромно говорят в Stability AI.
Достижением реалистичных результатов новая модель обязана увеличению количества параметров, использованных для обучения.
Для локального запуска SDXL 0.9 на ПК понадобится минимум 16 ГБ оперативной памяти и видеокарта GeForce RTX 20 (или выше) с 8 ГБ видеопамяти. Программа поддерживает Windows 11/10 и Linux.
Согласно публикации в блоге, модель вскоре будет доступна в веб-инструменте Stability AI Clipdrop и будет добавлена в программу DreamStudio. Компания говорит, что версия SDXL 1.0 с открытым исходным кодом появится в середине июля.
В то же время, с выпуском более совершенных систем еще больше растет обеспокоенность по поводу создания реалистичных фейков. Некоторые продукты нейросетей стали вирусными и запутали пользователей сети (например, фото Папы Франциска в пуховике Balenciaga). А в начале июня Федеральное бюро расследований США сообщило о росте случаев использования искусственного интеллекта для создания порнодипфейков и последующего шантажа, как взрослых, так и детей. На форумах в даркнете правоохранители обнаружили тысячи ИИ-изображений с детской порнографией, которые также затрудняют поиск реальных жертв.
Stability AI говорит, что запрещает создание изображений сексуального насилия над детьми и удалила все откровенные материалы из своих обучающих данных. В то же время любой сможет загрузить программу на свой компьютер, избегая правил и контроля, поскольку компания предлагает открытый исходный код для нее. Исполнительный директор Stability AI, Эмад Мостак, в прошлом году говорил, что «в конце концов, это ответственность людей за то, соблюдают ли они этику, мораль и закон в том, как они используют эту технологию»