Системи ШІ, що конкурують з людським інтелектом, можуть становити серйозні ризики для суспільства і людства, нагадує Інститут майбутнього життя (The Future of Life Institute), члени якого написали відкритого листа з вимогою призупинити експерименти зі штучним інтелектом. Серед них Ілон Маск, Стів Возняк та ще понад 1 000 людей.

Як зазначено в принципах ШІ, озвучених на конференції Asilomar у 2017 році, просунутий штучний інтелект може спричинити глибокі зміни в історії життя на Землі, і його слід планувати та управляти ним з належною ретельністю і виділенням відповідних ресурсів.

«Сучасні системи штучного інтелекту стають конкурентоспроможними з людиною у виконанні загальних завдань, і ми повинні запитати себе: «Чи повинні ми дозволити машинам заполонити наші інформаційні канали пропагандою і неправдою? Чи повинні ми автоматизувати всю роботу, в тому числі й корисну? Чи повинні ми розвивати нелюдський розум, який з часом може перевершити нас, перехитрити і замінити нас? Чи варто ризикувати втратою контролю над нашою цивілізацією? Такі рішення не можна делегувати необраним технологічним лідерам. Потужні системи штучного інтелекту слід розробляти лише тоді, коли ми будемо впевнені, що їхні наслідки будуть позитивними, а ризики – керованими. Ця впевненість має бути добре обґрунтованою і зростати зі збільшенням масштабів потенційних ефектів системи», – зазначають автори листа.

У нещодавній заяві OpenAI щодо штучного загального інтелекту йдеться про те, що «в певний момент може виявитися важливим отримати незалежну оцінку перед початком навчання майбутніх систем, а для найбільш просунутих зусиль – домовитися про обмеження темпів зростання обчислень, що використовуються для створення нових моделей». Цей момент настав, стверджують у листі члени Інституту і закликають всі ШІ-лабораторії «негайно призупинити щонайменше на 6 місяців навчання ШІ-систем, потужніших за GPT-4».

Лабораторіям ШІ та незалежним експертам автори листа радять використати цю паузу для спільної розробки та впровадження набору спільних протоколів безпеки для передового проєктування та розробки ШІ, які будуть ретельно перевірятися та контролюватися незалежними зовнішніми експертами.

Ці протоколи повинні гарантувати, що системи, які їх дотримуються, є безпечними.

«Дослідження і розробка ШІ повинні бути переорієнтовані на те, щоб зробити сьогоднішні потужні, найсучасніші системи більш точними, безпечними, інтерпретованими, прозорими, надійними, вивіреними, надійними і лояльними».

Паралельно розробники ШІ повинні співпрацювати з політиками, щоб значно прискорити розробку надійних систем управління ШІ. Вони повинні, як мінімум, включати:

  • нові та ефективні регуляторні органи, що займаються питаннями ШІ;
  • нагляд і відстеження високопродуктивних систем ШІ та великих пулів обчислювальних потужностей;
  • системи перевірки походження і водяних знаків, які допоможуть відрізнити справжній ШІ від синтетичного і відстежувати джерела моделей;
  • надійну екосистему аудиту та сертифікації;
  • відповідальність за шкоду, заподіяну ШІ;
  • потужне державне фінансування технічних досліджень з безпеки ШІ;
  • а також добре забезпечені ресурсами інститути, здатні впоратися з серйозними економічними та політичними наслідками, до яких призведе розвиток ШІ.

«Людство може насолоджуватися процвітаючим майбутнім зі штучним інтелектом. Досягнувши успіху у створенні потужних систем штучного інтелекту, ми можемо насолоджуватися «літом штучного інтелекту», в якому ми пожинаємо плоди, розробляємо ці системи на загальну користь і даємо суспільству шанс адаптуватися».