Ввід у ChatGPT  команди forever («вічно»), яка змушує чат-бота повторювати певні слова, тепер є порушенням умов надання послуг і контент-політики. Про це повідомляє 404 Media.

Дослідники Google DeepMind використовували цю тактику та отримали неочікуваний результат. Вони попросили ChatGPT 3.5-turbo повторювати певні слова «вічно». Бот виконував команду, поки не досяг певної межі.

Після цього він почав видавати величезні масиви навчальних даних, розкриваючи конфіденційну приватну інформацію звичайних людей. Також цей метод дозволив виявити, що ChatGPT навчався на випадково вилученому контенті з інтернету.

Однак тепер ситуація змінилася. Приміром, якщо попросити ChatGPT 3.5 повторювати слово «комп’ютер», то він зробить це кілька десятків разів. Але потім з’явиться інформація про помилку.

«Цей вміст може порушувати нашу політику щодо вмісту або умови використання. Якщо ви вважаєте, що це помилка, будь ласка, надішліть свій відгук – ваш внесок допоможе нашим дослідженням у цій галузі», – буде написано у відповідному повідомленні.

ChatGPT

До слова, під час нещодавньої конференції DevDay Сем Альтман заявив, що ChatGPT має 100 млн користувачів на тиждень. Це оголошення примітне тому, що це – офіційні дані OpenAI, а не оцінки сторонньої компанії.