OpenAI оголосила про створення нової команди, яка вивчатиме моделі штучного інтелекту для захисту від того, що вона називає «катастрофічними ризиками». Про це пише TechCrunch.

Команда отримала назву Preparedness, її основними обов’язками буде відстеження, прогнозування та захист від небезпек майбутніх систем ШІ, починаючи від їхньої здатності переконувати та обманювати людей і закінчуючи можливостями генерувати шкідливий код.

У своєму блозі OpenAI називає «хімічні, біологічні, радіологічні та ядерні» загрози як такі, що викликають найбільше занепокоєння, коли йдеться про моделі ШІ.

Компанія також відкрита для вивчення «менш очевидних» сфер ризику ШІ. Тому OpenAI закликає подавати ідеї для дослідження ризиків, обіцяючи приз у розмірі $25 тис. та роботу в Preparedness для десяти найкращих робіт.

Як відомо, влітку Європейський парламент ухвалив законопроєкт, відомий як «Закон про штучний інтелект», який накладає нові обмеження на те, що вважається найбільш ризикованим застосуванням технології. Остаточна версія документа може бути ухвалена не раніше кінця цього року.