Компанія OpenAI з 20 липня припинила роботу інструмента, який мав відрізняти написане людиною від штучного інтелекту. Таке рішення ухвалено через низький рівень точності класифікатора, пише The Verge.

«Ми працюємо над впровадженням зворотного зв’язку і в даний час досліджуємо більш ефективні методи визначення походження тексту», – додали в компанії.

Водночас OpenAI заявила, що планує «розробити та впровадити механізми, які дозволять користувачам зрозуміти, чи є аудіо- або візуальний контент створеним штучним інтелектом». Але що це будуть за механізми, поки не повідомляється.

До слова, недавно дослідники зі Стенфордського університету та Каліфорнійського університету в Берклі опублікували наукову статтю, яка має на меті показати зміни в результатах роботи GPT-4 із плином часу. Вони ставлять під сумнів стабільну роботу великих мовних моделей (LLM) OpenAI, зокрема GPT-3.5 і GPT-4.

Однак OpenAI заперечує будь-які заяви про зменшення можливостей GPT-4. Тут запевнили, що роблять кожну нову версію розумнішою за попередню.