Користувачі ШІ-генератора зображень Stable Diffusion незадоволені великим оновленням Version 2, яке нівелювало його здатність генерувати порнографічні зображення, а також картинки в стилі конкретних художників.
Розробник Stable Diffusion, компанія Stability AI, переробила в оновленні ключові компоненти моделі штучного інтелекту та покращила певні функції, такі як масштабування (можливість збільшення роздільної здатності зображень) та контекстно-орієнтоване редагування. Однак, зміни також ускладнюють роботу Stable Diffusion з певними типами зображень, які викликали суперечки та критику.
Користувачі відзначають, що, попросивши Stable Diffusion Version 2 згенерувати зображення в стилі цифрового художника Грега Рутковського, вона більше не створює роботи, які дуже нагадують його власні.
На відміну від моделей-конкурентів, таких як DALL-E від OpenAI, Stable Diffusion має відкритий вихідний код. Це дозволяє спільноті швидко вдосконалювати інструмент, а розробникам – безплатно інтегрувати його у свої продукти. Але це також означає, що Stable Diffusion має менше обмежень у використанні та, як наслідок, викликає значну критику.
Зокрема, багато художників, як Рутковський, роздратовані тим, що Stable Diffusion та інші моделі генерації зображень були навчені на їхніх роботах без будь-якої попередньої згоди та тепер можуть відтворювати їхні стилі. Питання про те, чи є таке копіювання за допомогою ШІ законним, залишається відкритим. Експерти кажуть, що навчання ШІ-моделей на даних, захищених авторським правом, швидше за все, є законним, але певні випадки використання можуть бути оскаржені в суді.
З навчальних даних Stable Diffusion також були вилучені зображення оголеної натури та порнографічні зображення. Генератори зображень зі штучним інтелектом вже використовуються для створення вихідних даних NSFW, в тому числі фотореалістичних зображень і зображень в стилі аніме. Однак ці моделі також можуть бути використані для генерації зображень, що нагадують конкретних людей (так звана «порнографія без згоди»), а також зображень насильства над дітьми.
Хоча зміни у Stable Diffusion Version 2 викликали роздратування у деяких користувачів, багато інших високо оцінили її потенціал щодо розширення функціональності, як, наприклад, нова можливість ШІ створювати контент, що відповідає глибині реального зображення.
First tests with the new @StableDiffusion V2 depth2image feature. This has potential…@EMostaque @StabilityAI #stablediffusionv2 pic.twitter.com/XZGng0w5HJ
— Saad Ahmed (@microsaad) November 24, 2022
Окрім того, Stable Diffusion 2.0 також включає модель Upscaler Diffusion, яка збільшує роздільну здатність зображень у 4 рази. У поєднанні з моделями перетворення тексту в зображення, Stable Diffusion 2.0 тепер може генерувати зображення з роздільною здатністю 2048×2048 і навіть вище.
Stable Diffusion 2.0 збільшує згенероване зображення з низькою роздільною здатністю (128×128) до зображення з вищою роздільною здатністю (512×512)
Публічна демоверсія Stable Diffusion Version 2 доступна тут (хоча через високий попит з боку користувачів модель може бути недоступною або повільною).
Завантаження коментарів …