Група лідерів IT-галузі попереджає, що технологія штучного інтелекту, яку вони самі створюють, може одного дня становити загрозу існуванню людства та має розглядатися як соціальний ризик нарівні з пандеміями та ядерними війнами. Про це пише The New York Times.

«Зменшення ризику вимирання через ШІ має стати глобальним пріоритетом поряд із іншими ризиками суспільного масштабу, такими як пандемії та ядерна війна», – йдеться в заяві, яку, як очікується, оприлюднить некомерційна організація Центр безпеки ШІ.

Відкритий лист підписали понад 350 керівників, дослідників та інженерів, які працюють у сфері штучного інтелекту. Серед підписантів – топменеджери трьох провідних компаній-розробників ШІ: гендиректор OpenAI Сем Альтман, гендиректор Google DeepMind Деміс Гассабіс і гендиректор Anthropic Даріо Амодей.

Виконавчий директор Центру безпеки ШІ Ден Хендрікс заявив, що відкритий лист став «камінг-аутом» для деяких лідерів галузі, які висловлювали занепокоєння – але тільки в приватному порядку – щодо ризиків технології, яку вони розробляють.

За його словами, лаконічність заяви мала на меті об’єднати експертів із ШІ, які можуть не погоджуватися щодо природи конкретних ризиків або кроків для запобігання цим ризикам, але які поділяють загальну стурбованість щодо потужних систем ШІ.

Нагадаємо, що недавно Сем Альтман виступив перед підкомітетом Сенату з питань правосуддя та відповів на запитання законодавців про потенційні непередбачувані наслідки генеративного штучного інтелекту. Він закликав законодавців якнайшвидше ухвалити нові закони та правила щодо ШІ для можливого встановлення стандартів для навчання та випуску нових ШІ-систем із боку технологічних компаній.