ФБР попередило про зростання випадків використання штучного інтелекту для створення фальшивих відео, щоб переслідувати людей з метою вимагань. Про це пише Ars Technica.

«ФБР продовжує отримувати повідомлення від жертв, зокрема неповнолітніх дітей і дорослих, які не давали на це згоди, чиї фотографії або відео були змінені на відвертий контент, – зазначили в Бюро. – Потім ці фотографії або відео публічно поширюються в соціальних мережах або на порнографічних веб-сайтах із метою переслідування жертв або з метою вимагання».

Тут пояснили, що шахраї часто отримують фотографії жертви із соціальних мереж або з інших джерел, щоб використати їх для створення зображень на сексуальну тематику. Програмне забезпечення та хмарні сервіси для створення підроблених відео є доступними в інтернеті, а з розвитком ШІ їхня якість значно покращилася. Тепер для створення реалістичних фейкових відео достатньо лише зображення обличчя людини.

«Багато жертв, серед яких є неповнолітні, не знають, що їхні зображення були скопійовані, підроблені та розповсюджені, поки хтось не звернув на це увагу. Потім зловмисники надсилають фотографії безпосередньо жертвам з метою вимагання чи переслідування, або ж до тих пір, поки вони самі не виявлять їх в інтернеті», – додали у ФБР.

Бюро закликало людей бути обережними, щоб запобігти використанню їхніх зображень для створення підробленого контенту.

«Хоча зображення та відео здаються нешкідливими при розміщенні або поширенні, вони можуть надати зловмисникам велику кількість контенту для використання у злочинній діяльності», – пояснили у ФБР.

Раніше повідомлялося, що двоє розробників використали модель генерації зображень DALL-E 2 від OpenAI для створення програми судової експертизи, яка може генерувати «гіперреалістичні» поліцейські фотороботи підозрюваного на основі даних користувача. Мета програми — скоротити час, який зазвичай витрачається на те, щоб намалювати підозрюваного, що становить близько двох-трьох годин.