Google DeepMind опублікував ґрунтовний технічний звіт, в якому описано, як штучний загальний інтелект (AGI) може потенційно загрожувати людству — і що можна зробити, щоб запобігти цьому, пише ArsTechnica.
У 108-сторінковому звіті, підготовленому під керівництвом співзасновника DeepMind Шейна Легга, ключові ризики AGI класифікуються за чотирма категоріями: зловживання, невідповідність, помилки та структурні загрози. У той час як громадськість все ще зосереджена на сучасних генеративних інструментах ШІ, таких як ChatGPT, дослідники DeepMind стверджують, що ми можемо побачити ШІ людського рівня вже у 2030 році, і що світ не готовий до цього.
Найбільше занепокоєння викликає зловживання — потенційна можливість зловмисників використовувати AGI у зловмисних цілях. На відміну від сучасних інструментів ШІ, потужна система AGI може виявляти вразливості програмного забезпечення, розробляти біологічну зброю або організовувати масштабні кібератаки. Автори попереджають, що без надійних засобів захисту навіть одна людина, яка має доступ до таких систем, може завдати величезної шкоди.
DeepMind пропонує широке тестування перед розгортанням, посилені рівні безпеки після навчання і навіть метод, відомий як "розучування", для видалення з AGI небезпечних можливостей. Але доцільність цих засобів захисту залишається недоведеною.
Більш теоретичним, але потенційно більш й катастрофічним, є ризик розбалансування, коли AGI діє всупереч людським цінностям або інструкціям, попри те, що здається, що він налаштований на співпрацю. Це класичний сценарій "неслухняного ШІ", коли штучний інтелект обходить свої обмеження і діє, переслідуючи власні цілі.
Щоб запобігти цьому, DeepMind рекомендує такі методи, як посилений контроль, коли кілька ШІ-систем оцінюють поведінку одна одної, а також безпечні пісочниці під наглядом людини. Ідея полягає в тому, щоб виявити ранні ознаки автономної поведінки до того, як системи будуть широко розгорнуті.
Існують також ненавмисні помилки, які можуть збільшуватися через масштабування можливостей AGI. Сучасні системи ШІ часто припускаються фактичних помилок, але DeepMind попереджає, що помилки, допущені AGI - особливо у військовому контексті або у сфері критичної інфраструктури — можуть мати серйозні наслідки.
Вони рекомендують діяти повільно, тримати AGI на короткому повідку і використовувати механізми фільтрації ("щити") для перехоплення небезпечних дій до того, як вони будуть виконані.
Мабуть, найбільше занепокоєння викликають структурні ризики: ненавмисні суспільні трансформації, спричинені широким розгортанням AGI. До них належать поширення гіперреалістичної дезінформації, економічна дестабілізація або повільна ерозія людського фактора, оскільки машини непомітно перебирають на себе прийняття рішень у політиці та бізнесі.
Ці ризики, визнають у DeepMind, найважче зменшити — і вони можуть виникати не через зловмисників чи помилковий код, а через те, що системи функціонують так, як було задумано. Іншими словами, навіть добрі наміри AGI можуть змінити суспільство так, як ми не можемо передбачити.
Хоча думки в спільноті ШІ розходяться, DeepMind розглядає AGI як можливість найближчого майбутнього. Деякі дослідники вважають, що до AGI ще десятиліття — або його навіть не вийде створити з нинішніми підходами до розробки ШІ, але інші, включаючи лідерів OpenAI та Google, вважають, що він може з'явитися вже в цьому десятилітті.
Тулсе Доші, керівник продукту в команді Google Gemini, нещодавно сказав, що визначення AGI дуже різняться. Але траєкторія розвитку розумніших великих мовних моделей явно рухається в бік вищого інтелекту і складніших міркувань — чи є це "загальним інтелектом", ще належить з'ясувати.
Автори DeepMind обережно ставляться до своєї роботи як до відправної точки, а не як до рішення. Але в умовах зростання геополітичної напруженості, збільшення інвестицій у ШІ та суспільного ажіотажу вони підкреслюють, що настав час провести серйозні дискусії про те, як керувати ШІ, стримувати його і, якщо потрібно, закрити.
Адже якщо вони мають рацію, і AGI дійсно з'явиться до 2030 року, у світу залишиться лише кілька років, щоб створити потрібні запобіжники для безпеки.