Компанія OpenAI представила план щодо безпеки своїх найсучасніших моделей штучного інтелекту. Він передбачає одразу кілька ініціатив, пише Reuters.

Приміром, OpenAI розгортатиме новітні технології лише тоді, коли вони вважатимуться безпечними в конкретних сферах. Серед них – кібербезпека та ядерні загрози.

Компанія також створить консультативну групу, яка розглядатиме звіти про безпеку та направлятиме їх керівництву та раді директорів. І хоча рішення ухвалюватимуть керівники, рада директорів матиме право їх скасовувати.

З моменту запуску ChatGPT потенційні ризики ШІ були в центрі уваги дослідників та громадськості. Технологія генеративного ШІ вразила користувачів своїми можливостями, але викликала занепокоєння щодо безпеки через здатність поширювати дезінформацію та маніпулювати людьми.

Між тим, Білл Гейтс вважає, що генеративний ШІ зайшов у глухий кут. За його словами, стрибок від GPT-2 до GPT-4 був неймовірним. Однак зараз технологія GPT досягла плато, і GPT-5 навряд чи буде кращим за свого попередника – GPT-4. Водночас в короткостроковій перспективі Білл Гейтс бачить в ШІ значний потенціал.