Коротке оповідання під назвою «Остання надія» вперше потрапило на стіл Шейли Вільямс на початку січня. Вільямс, редактор журналу Asimov’s Science Fiction, прочитала оповідання і передала його далі, пише The Verge.

Спочатку вона не надала цьому особливого значення — вона щодня читає і відповідає письменникам в рамках своєї роботи, отримуючи від 700 до 750 оповідань на місяць. Але коли через кілька тижнів надійшла ще одна історія, також під назвою «Остання надія», від письменника з іншим ім’ям, Вільямс щось запідозрила. Коли через кілька днів з’явилася ще одна «Остання надія», Вільямс одразу зрозуміла, що має справу з проблемою.

З моменту першого надсилання Вільямс отримала понад 20 оповідань під назвою «Остання надія», кожне з яких було надіслано від різних авторів та з різних електронних адрес. Вільямс вважає, що всі вони були створені за допомогою ШІ, як і сотні інших подібних заявок, які за останні місяці переповнили невеликі видавництва.

У січні Asimov’s Science Fiction отримав близько 900 оповідань на розгляд, а цього місяця планує отримати 1000. Шейла Вільямс каже, що майже весь приріст — за рахунок творів, які, схоже, створені штучним інтелектом, а сама вона прочитала так багато, що тепер часто може з перших слів сказати, чи написане це оповідання людиною.

Окрім назв, що повторюються, є певні імена персонажів, які мають тенденцію з’являтися часто, каже Вільямс. Іноді рукопис містить іншу назву, ніж та, що вказана в онлайн-формі. У необов’язкових супровідних листах деякі автори додають інструкції, як переказати їм гроші за їхню історію, яка ще не була прийнята.

При цьому Asimov’s Science Fiction отримує історії з десятками схожих назв: «Останнє відлуння», «Останнє послання», «Останній день осені» і «Останній мандрівник».

Вільямс та її команда навчилися розпізнавати твори, створені штучним інтелектом, але потік заявок все одно розчаровує. Такі видання, як Asimov’s Science Fiction, переповнюються текстами згенерованими штучним інтелектом, які забирають час редакторів та потенційно витісняють твори талановитих авторів-початківців. І проблема може тільки погіршитися, оскільки ширша доступність ботів-письменників створює новий жанр – «схему швидкого збагачення».

«Я просто переглядаю їх так швидко, як тільки можу, – каже Вільямс про роботи, які, як вона підозрює, згенеровані штучним інтелектом. – Щоб завантажити матеріал, відкрити його та переглянути, потрібно стільки ж часу. І я б воліла витрачати цей час на справжні матеріали».

Для деяких редакторів наплив згенерованих штучним інтелектом матеріалів змусив їх припинити приймати нові роботи.

Минулого тижня популярний журнал наукової фантастики Clarkesworld оголосив, що тимчасово припиняє прийом робіт через потік творів, створених за допомогою штучного інтелекту. У попередньому дописі в блозі редактор Ніл Кларк зазначив, що журнал був змушений заборонити публікацію стрімко наростальної кількості авторів через те, що вони надіслали історії, згенеровані за допомогою автоматизованих інструментів. За словами Кларка, лише в лютому Clarkesworld отримав 700 робіт, написаних людьми, і 500 історій, згенерованих машиною.

Кларк вважає, що спам надходить від людей, які шукають швидкого заробітку і які знайшли Clarkesworld та інші видання через інтернет. Наприклад, один із сайтів наповнений SEO-приманками – статтями та ключовими словами з маркетингу, письменництва та бізнесу, які обіцяють допомогти швидко заробити гроші. У статті на сайті перераховано майже два десятки літературних журналів і вебсайтів, зокрема Clarkesworld і Asimov’s, а також більші видання, такі як BBC, із зазначенням ставок гонорарів і реквізитів для надсилання матеріалів. Стаття заохочує читачів використовувати інструменти штучного інтелекту і містить партнерські маркетингові посилання на Jasper, програмне забезпечення для написання текстів зі штучним інтелектом.

Більшість видань платять невелику ціну за слово, близько 8-10 центів, тоді як інші платять фіксовані гонорари до кількох сотень доларів за прийняті матеріали. У своєму блозі Ніл Кларк написав, що «високий відсоток шахрайських заявок» надходить з деяких регіонів, але відмовився назвати їх, побоюючись, що це може виставити письменників з цих країн як шахраїв.

У деяких випадках Кларк листувався з людьми, яких забанили через роботи, згенеровані штучним інтелектом, — і вони казали, що їм просто потрібні гроші.

Кларк, який розробив систему подачі матеріалів для свого журналу, назвав дії ШІ-спамерів «неелегантними». Він зміг визначити, що один і той самий твір надсилається з однієї й тієї ж IP-адреси до кількох видань з різницею в лічені хвилини, часто в тому порядку, в якому журнали з’являються в списках.

«Якби це були люди зі спільноти [наукової фантастики та фентезі], вони б знали, що це не спрацює. Для них було б одразу очевидно, що так не можна робити і очікувати, що це спрацює», – каже Кларк.

Проблема виходить за рамки видань наукової фантастики та фентезі. Flash Fiction Online (FFO) працює p різноманітними жанрами, включаючи жахи та фантастику. 14 лютого видання додало відповідне повідомлення до своєї форми:

«Ми прагнемо публікувати історії, написані і відредаговані людьми. Ми залишаємо за собою право відхилити будь-який матеріал, який, як ми підозрюємо, був створений за допомогою програмного забезпечення для моделювання мови, ChatGPT, чат-ботів або будь-яких інших додатків, ботів або програмного забезпечення зі штучним інтелектом».

Оновлені умови були додані приблизно в той час, коли FFO отримав понад 30 матеріалів з одного джерела протягом декількох днів, розповідає Анна Єттс, видавець і головна редакторка. Кожна історія містила кліше, які Єттс бачила в роботах, створених штучним інтелектом, і кожна мала унікальний супровідний лист, структурований і написаний не так, як це зазвичай бачить видання. Але Єттс та її колеги ще з січня мали підозри, що деякі роботи, які їм надсилали, були створені за допомогою інструментів штучного інтелекту.

Єттс почала експериментувати з ChatGPT ще в грудні, подаючи інструменту підказки для створення історій певних жанрів. Система змогла відтворити технічні елементи, включно з визначенням головних героїв, встановленням та введенням конфлікту, але не змогла створити жодної «глибокої точки зору» – кінцівки були надто акуратними та ідеальними, а емоції часто переходили в мелодраму. У всіх «пронизливі зелені очі», а історії часто починаються з того, що герої сидять. За оцінками Єттс, з понад тисячі робіт, які FFO отримав цього року, близько 5%, ймовірно, були згенеровані штучним інтелектом.

У минулому FFO публікував мейнстримні твори, які мали більш традиційний стиль написання та рівень, доступний для різних читачів. На думку Єттс, історії, створені за допомогою інструментів штучного інтелекту, можуть вийти за рамки базових вимог.

«У них є всі складові історії, які ви намагаєтеся шукати. Є початок, середина і кінець. Є розв’язка, персонажі. Граматика хороша», – каже Єттс.

Команда FFO працює над тим, щоб навчити штатних редакторів шукати певні елементи історії, коли вони вперше перевіряють заявки.

Єттс стурбована тим, що зростаюча хвиля робіт, створених за допомогою штучного інтелекту, може буквально витіснити роботи реальних людей. Видання використовує популярний сервіс Submittable і план FFO, який передбачає щомісячний ліміт історій, після якого прийом робіт закривається. Якщо сотні людей надішлють невідповідні роботи, створені штучним інтелектом, це може завадити авторам-людям надсилати свої історії.

Інші члени спільноти стежать за проблемою, яка охоплює інші видавництва, і обмірковують способи реагування, перш ніж вона пошириться далі. Метью Крессель, письменник-фантаст і творець Moksha, онлайн-системи подачі заявок, якою користуються десятки видань, каже, що він почав отримувати дзвінки від клієнтів, які отримали спам, написаний за допомогою інструментів штучного інтелекту.

Крессель каже, що хоче, щоб Moksha залишалася «агностичною», коли йдеться про цінність матеріалів, створених за допомогою чат-ботів. За словами Кресселя, видавці мають можливість додати прапорець, за допомогою якого автори можуть підтвердити, що в їхніх роботах не використовуються системи штучного інтелекту, і розглядають можливість додати опцію для видань, яка дозволить їм блокувати або частково обмежувати матеріали, створені за допомогою інструментів штучного інтелекту.