Генеральний директор OpenAI Сем Альтман виступив перед підкомітетом Сенату з питань правосуддя та відповів на запитання законодавців про потенційні непередбачувані наслідки генеративного штучного інтелекту. Про це пише Gizmodo.

Він закликав законодавців якнайшвидше ухвалити нові закони та правила щодо ШІ для можливого встановлення стандартів для навчання та випуску нових ШІ-систем із боку технологічних компаній. На думку Альтмана, регуляторне втручання з боку урядів матиме вирішальне значення для зменшення ризиків, пов’язаних із дедалі потужнішими моделями ШІ.

Разом з іншими експертами він також зауважив, що узгоджені моделі в стилі ChatGPT, якщо їх не регулювати, можуть збільшити кількість дезінформації в інтернеті, сприяти кіберзлочинцям і навіть поставити під загрозу довіру до виборчих систем.

З огляду на це, Альтам та законодавці дослідили численні потенційні рішення та розглянули ідею створення нового регуляторного органу з експертів у галузі ШІ, щоб контролювати розробку та впровадження відповідних технологій.

Під час слухань Альтман також визнав ще одну стурбованість – потенціал ШІ обманювати користувачів за допомогою складних чат-ботів стрімко зростає. При цьому він порівняв це з ситуацію, з якою суспільство зіштовхнулося під час появи Photoshop від Adobe.

«Я думаю, що люди здатні швидко адаптуватися, – пояснив він. – Коли фотошоп з’явився на сцені дуже давно, деякий час люди були дійсно обдурені фотошоп-зображеннями, але потім досить швидко розвинули розуміння того, що зображення можуть бути підроблені. Це буде так само, але на стимуляторах».

Про небезпеку нерегульованого ШІ попередив під час слухань й сенатор від штату Коннектикут Річард Блюменталь. Для цього він використав запис, на якому програма для клонування голосу читала підказку, згенеровану ChatGPT.

«Це не те майбутнє, якого ми хочемо», – сказав імітатор сенатора, створений за участі ШІ.

Багато законодавців, зокрема сенатор Блюменталь і сенатор від Нью-Джерсі Корі Букер, дорікнули колегам втратою ініціативи, коли йшлося про запобігання перетворенню соціальних мереж на знаряддя поширення дезінформації та шкідливого контенту. Штучний інтелект потенційно може стати нагодою для виправлення ситуації.

«Конгрес не зміг вчасно вжити заходів щодо соціальних мереж, тепер ми зобов’язані зробити це щодо ШІ до того, як загрози та ризики стануть реальними», – підкреслив Блюменталь.

А от сенатор від штату Міссурі Джош Хоулі вважає, що великі мовні моделі, такі як GPT4, можуть розвиватися в одному з двох надзвичайно різних напрямків.

«Ми можемо стати свідками однієї з найбільш значущих технологічних інновацій в історії людства, – підкреслив він. – Моє питання полягає в тому, що це буде за інновація? Чи буде вона схожа на друкарський верстат, який поширював знання, владу і навчання… чи вона буде більше схожа на атомну бомбу».

Водночас сенаторка від штату Теннессі Марша Блекберн спровокувала дискусію про використання ШІ матеріалів, які захищені авторським правом. Вона поділилася, як навчений на кантрі-співакові Гарті Бруксу ШІ зміг створити переконливу версію його твору. Цей приклад сенаторка використала, щоб вимагати від компанії Альтмана компенсації, якщо твори митців допомагатимуть ШІ-моделі в навчанні.

Раніше повідомлялося, що штучний інтелект здатен змінювати мислення користувачів без їхнього відома. Про це свідчить зростаюча кількість досліджень в цьому напрямку.