Наприкінці грудня The New York Times подали до суду на OpenAI, звинувачуючи компанію у тому, що вони порушили авторські права використовуючи матеріали Times для навчання штучного інтелекту. OpenAI випустили пост, у якому відповіла на ці звинувачення. 

У блог пості компанія називає судовий позов The New York Times безпідставним та наводять 4 головних пункти, чому це так: 

  1. Вони співпрацюють з новинними організаціями та створюють нові можливості 
  2. Навчання є добросовісним використанням, але компанія надає можливість відмовитися від нього, оскільки це «правильно»
  3. «Регургітацію» називають рідкісною помилкою, яку намагаються звести до нуля
  4. The New York Times не розповідає всю історію

Перш за все, у блог пості розповіли, що компанія співпрацює з новинними організаціями та завжди намагається йти на діалог й знаходити компроміси та розв’язання проблем.

«Наша ціль це підтримувати здорову екосистему новин, бути хорошим партнером та створювати однаково корисні можливості», – написали в пості. 

За словами компанії, ChatGPT дає можливість новинним сайтам отримати нових читачів, завжди даючи посилання на джерело, звідки чат-бот бере інформацію. Крім того, OpenAI вважає, що їх чат-бот навпаки допомагає журналістами у виконані їх роботи.

Використання матеріалів новинних організацій компанія називає добросовісним споживанням, однак через те, що в першу чергу вони намагаються бути хорошим партнером для інших компаній, вони дають можливість сайтам та ЗМІ обмежувати доступ штучного інтелекту до своїх матеріалів. 

«Регургітація», проблема, через яку штучний інтелект запам’ятовує та надалі повністю копіює чи імітує матеріали ЗМІ, назвали рідкісною помилкою, яку OpenAI всіляко намагаються звести до нуля.

Також компанія намагається зробити все, аби користувачі також не маніпулювали ChatGPT та не приводили чат-бот до того, що він порушує прописані правила використовуючи чужий контент. Це всіляко намагаються обмежити. 

Останнім, та, напевно, найважливішим пунктом у цьому пості є те, що OpenAI стверджує, що The New York Times не до кінця розповідають історію. За їх словами, Times відмовляються надавати приклади того, у чому звинувачують ChatGPT, а також, що газета маніпулювала ChatGPT. 

«Схоже, вони [The New York Times] навмисно маніпулювали підказками, часто включаючи довгі уривки статей, щоб змусити нашу модель запам’ятати цей вміст. Навіть використовуючи такі підказки, наші моделі зазвичай не поводяться так, як натякає The New York Times, що свідчить про те, що вони або наказали моделі запам’ятати вміст, або вибирали свої приклади з багатьох спроб», – написали у пості.

Також компанія говорить, що The New York Times, як і будь-яке окреме джерело, не вніс істотного внеску в навчання наявних моделей, а також не був би достатньо впливовим для майбутнього навчання.