OpenAI розробила інструмент, який потенційно може викривати студентів, котрі використовують ChatGPT для написання своїх робіт. Але, як повідомляє The Wall Street Journal, компанія обговорює, чи варто випускати його на ринок.
У заяві для TechCrunch представник OpenAI підтвердив, що компанія досліджує метод створення водяних знаків для текстів. Проте тут застосовують "обдуманий підхід" через "пов'язані з цим складнощі та його ймовірний вплив на ширшу екосистему за межами OpenAI".
"Метод водяних знаків для тексту, який ми розробляємо, є технічно багатообіцяючим, але має серйозні ризики, які ми зважуємо, поки досліджуємо альтернативи, включаючи вразливість до обходу зловмисників і потенціал непропорційного впливу на такі групи, як неангломовні", – пояснили в компанії.
Очікується, що це буде відмінний підхід від більшості попередніх спроб виявити текст, згенерований ШІ, які були здебільшого неефективними.
При цьому OpenAI зосередиться виключно на виявленні текстів, написаних за допомогою ChatGPT, а не за допомогою моделей інших компаній.
Для цього будуть внесені невеликі зміни в те, як ChatGPT вибирає слова, за великим рахунком, створюючи невидимий водяний знак у тексті, який згодом можна буде виявити за допомогою окремого інструмента.
Після публікації в журналі OpenAI також оновила травневу публікацію в блозі про свої дослідження щодо виявлення контенту, створеного штучним інтелектом. Детальніше зі змінами можна ознайомитися за посиланням.