Працівники OpenAI та Google DeepMind попереджають про ризики "вимирання людства" через ШІ
Група нинішніх і колишніх співробітників компаній, які працюють у галузі штучного інтелекту, висловили занепокоєння з приводу ризиків, пов'язаних з цією технологією. Про це пише Reuters.
У відкритому листі 11 нинішніх і колишніх працівників OpenAI, а також одного нинішнього і ще одного колишнього співробітника Google DeepMind йдеться про те, що фінансові мотиви компаній перешкоджають ефективному нагляду за ШІ.
"Ми не віримо, що спеціальних структур корпоративного управління достатньо, щоб змінити цю ситуацію", – сказано в їхньому листі.
Спеціалісти також попереджають про ризики, пов'язані з нерегульованим ШІ. Йдеться про поширення дезінформації та навіть втрату контролю над незалежними системами ШІ та поглиблення існуючої нерівності, що може призвести до "вимирання людства".
Експерти знайшли приклади того, як генератори зображень від компаній, включаючи OpenAI і Microsoft, створювали фотографії з дезінформацією, пов'язаною з голосуванням, попри політику, спрямовану проти такого контенту.
У листі сказано, що ШІ-компанії мають "слабкі зобов'язання" ділитися з урядами інформацією про можливості та обмеження своїх систем. Також тут у документі сказано, що не можна покладатися на те, що ці фірми добровільно поділяться такою інформацією.
Відкритий лист є останнім, в якому висловлюються занепокоєння щодо безпеки технології генеративного ШІ, яка може швидко і дешево створювати текст, зображення і аудіо, подібні до людських.
До слова, в лютому цього року стало відомо, що Google, Apple, Meta, Microsoft та низка інших великих технологічних компаній приєдналися до Інституту-консорціуму з безпеки ШІ (AISIC), який створили в США. Загалом до цієї ініціативи долучилися понад 200 компаній та організацій.