Пропонуємо вашій увазі переклад статті The Wall Street Journal, в якій видання підкреслює той великий розрив, що утворився між реальними можливостями та сприйняттям громадськістю систем на основі штучного інтелекту.

Після багатьох років, протягом яких компанії наголошували на потенціалі штучного інтелекту, дослідники кажуть, що настав час перезавантажити очікування.

Завдяки нещодавньому розвитку технологій компанії розробили більше систем, які можуть створювати, здавалося б, людські розмови, вірші та зображення. Проте етики та дослідники штучного інтелекту попереджають, що деякі розробники перебільшують можливості — ажіотаж, який за їхніми словами, породжує загальне непорозуміння та спотворює погляди політиків на потужність і помилковість такої технології.

«Ми вийшли з рівноваги», — каже Орен Етціоні, виконавчий директор Інституту штучного інтелекту Аллена, дослідницької некомерційної організації в Сіетлі.

Він та інші дослідники стверджують, що цей дисбаланс допомагає пояснити, чому на початку цього місяця багато хто був збентежений, коли інженер компанії Alphabet Inc., виходячи зі своїх релігійних переконань, стверджував, що одну із систем штучного інтелекту компанії слід вважати розумною.

Інженер сказав, що чат-бот фактично став людиною, яка має право запитувати згоду на проведення експериментів. Google призупинив його роботу та заперечив його твердження, заявивши, що етики та технологи компанії розглянули цю можливість та відхилили її.

Дослідники кажуть, що віра в те, що штучний інтелект стає — або колись може стати — усвідомленим, залишається на периферії в ширшій науковій спільноті.

Насправді штучний інтелект охоплює низку методів, які значною мірою залишаються корисними для ряду характерних технічних засобів бек-офісів, як-от обробка даних від користувачів для кращого націлювання на них за допомогою оголошень, контенту та рекомендацій щодо продуктів.

За останнє десятиліття такі компанії, як Google, Meta Platforms, що є материнською компанією Facebook, і Amazon, вклали значні кошти в розвиток таких можливостей, щоб забезпечити собі механізми зростання та прибутку.

Google, наприклад, використовує штучний інтелект для кращого аналізу складних пошукових запитів, допомагаючи надавати релевантну рекламу та вебрезультати.

Кілька стартапів також виросли з більш грандіозними амбіціями. Один з них під назвою OpenAI зібрав мільярди від донорів та інвесторів, включаючи виконавчого директора Tesla Ілона Маска та компанію Microsoft, щоб створити так званий загальний штучний інтелект, систему, здатну стати відповідною або навіть перевершити кожен вимір людського інтелекту. Деякі дослідники вважають, що це може відбутися через десятиліття, якщо взагалі відбудеться.

Конкуренція між цими компаніями за те, щоб випередити одна одну, сприяла швидкому прогресу штучного інтелекту та призвела до все більш яскравих демонстрацій, які захопили уяву громадськості та привернули увагу до технології.

DALL-E від OpenAI, система, яка може створювати ілюстрації на основі підказок користувача, наприклад «McDonald’s на орбіті навколо Сатурна» або «ведмеді в спортивному спорядженні на тріатлоні», за останні тижні породила багато мемів у соціальних мережах.

Відтоді Google розробив власні системи для генерації текстового мистецтва.

Попри те, що ці результати можуть бути винятковими, зростаючий хор експертів попереджає, що компанії недостатньо стримують ажіотаж.

Маргарет Мітчелл, яка була одним із керівників етичної команди Google зі штучного інтелекту до того, як компанія звільнила її після публікації критичної статті про її системи, каже, що пошуковий гігант частково продає акціонерам те, що він є найкращим у світі у сфері штучного інтелекту.

Пані Мітчелл, яка зараз працює в стартапі зі штучного інтелекту під назвою Hugging Face, і Тімніт Гебру, інший співкерівник Google з питань етики штучного інтелекту, яка також була вимушена піти з компанії, були одними з перших, хто попередив про небезпеку технології.

У своєму останньому документі, написаному в Google, вони стверджували, що технології часом завдаватимуть шкоди, оскільки їхні схожі на людські можливості означають, що вони мають такий же потенціал невдачі, як і самі люди. Серед наведених прикладів: неправильний переклад системи штучного інтелекту Facebook, яка відтворила «доброго ранку» арабською мовою як «нашкодити їм» англійською та «напасти на них» івритом, що змусило ізраїльську поліцію заарештувати палестинця, який опублікував привітання, перш ніж зрозуміти свою помилку.

Внутрішні документи, розглянуті The Wall Street Journal у рамках серії «Файли Facebook», опублікованої минулого року, також показали, що системам Facebook не вдалося постійно ідентифікувати відео зйомки від першої особи та расистські висловлювання, видаляючи лише крихти контенту, який порушує правила компанії.

У Facebook заявили, що вдосконалення штучного інтелекту призвели до різкого скорочення кількості ворожих висловлювань та іншого контенту, який порушує правила соціальної мережі.

В Google заявили, що звільнили пані Мітчелл за те, що вона надала внутрішні документи людям за межами компанії. Керівник відділу штучного інтелекту Google сказав співробітникам, що робота пані Гебру була недостатньо ретельною.

Ці звільнення відбилися в технологічній індустрії, спонукавши тисячі в Google і за його межами засудити те, що вони назвали в петиції «безпрецедентною дослідницькою цензурою». Генеральний директор Google Сундар Пічаї заявив, що працюватиме над відновленням довіри з цих питань, і зобов’язався подвоїти кількість людей, які вивчають етику ШІ.

Розрив між сприйняттям і реальністю не є новим. Пан Етціоні та інші вказали на маркетинг навколо Watson, системи ШІ від International Business Machines Corp., яка стала широко відомою після перемоги над людьми у вікторині «Jeopardy». Після десятиліття і мільярдів доларів інвестицій минулого року компанія заявила, що вивчає можливість продажу Watson Health, підрозділу, чий продукт мав допомагати лікарям діагностувати та лікувати рак.

Ставки лише зросли, оскільки штучний інтелект тепер вбудований скрізь і охоплює більше компаній, чиє програмне забезпечення — електронна пошта, пошукові системи, стрічки новин, голосові помічники — проникає в наше цифрове життя.

Після нещодавніх заяв свого інженера, в Google активно заперечували, що чат-бот компанії набув свідомість.

Чат-боти компанії та інші інструменти для розмови «можуть обговорювати будь-які фантастичні теми», — сказав речник Google Брайан Габріель. «Якщо ви запитаєте, як це бути динозавром з морозивом, вони можуть створити текст про танення, ревіння тощо». Це не те саме, що розум, додав він.

Блейк Лемуан, тепер відсторонений інженер, сказав в інтерв’ю, що він зібрав сотні сторінок діалогів із контрольованих експериментів із чат-ботом під назвою LaMDA, щоб підтримати своє дослідження, і він точно представляв внутрішню роботу програм Google.

«Це не перебільшення природи системи», — сказав пан Лемуан. «Я намагаюся якомога обережніше і точніше повідомляти, де є невизначеність, а де її немає».

Пан Лемуан, який описав себе як містика, який поєднує в собі аспекти християнства та інших духовних практик, таких як медитація, сказав, що він говорить у релігійній якості, коли описує LaMDA як свідомість.

Елізабет Кумар, докторантка з комп’ютерних наук Університету Брауна, яка вивчає політику штучного інтелекту, каже, що розрив у сприйнятті прокрався в політичні документи. Останні місцеві, федеральні та міжнародні нормативні акти та нормативні пропозиції спрямовані на розв’язання проблеми з потенціалом систем штучного інтелекту дискримінувати, маніпулювати чи іншим чином завдавати шкоди розроблені таким чином, що передбачається, що система є висококомпетентною. За її словами, вони в основному виключили можливість завдання шкоди через те, що такі системи штучного інтелекту просто не працюють, що більш імовірно.

Пан Етціоні, який також є членом Національної цільової групи з досліджень штучного інтелекту адміністрації Байдена, сказав, що політикам часто важко зрозуміти проблеми. «З моїх розмов з деякими з них я можу сказати вам, що вони мають добрі наміри та ставлять хороші запитання, але вони не дуже добре поінформовані», — сказав він.