Перед звільненням Альтмана дослідники OpenAI попередили правління про прорив у сфері ШІ, який може загрожувати людству

Дослідники OpenAI попередили раду директорів компанії про потужний прорив у сфері штучного інтелекту, який, за їхніми словами, може загрожувати людству, повідомляє Reuters.

Відповідного листа вони написали напередодні звільнення Сема Альтмана. За словами інформованих джерел, цей лист став одним із факторів із-поміж довго списку претензій, що призвели до звільнення гендиректора OpenAI.

За інформацією Reuters, може йтися про проєкт Q* (вимовляється як Q-Star), який називають проривом у створенні загального штучного інтелекту (AGI). Співрозмовник агентства пояснив, що завдяки величезним обчислювальним ресурсам нова модель змогла розвʼязати базові математичні задачі.

Джерело також додало, що хоча модель виконує математичні завдання для учнів початкових класів, успішне проходження таких тестів змусило дослідників бути дуже оптимістичними щодо майбутнього успіху Q*.

У своєму листі до ради дослідники OpenAI відзначили можливості ШІ та його потенційну небезпеку, повідомили джерела. Однак не уточнили, про які саме проблеми з безпекою йдеться.

Недавно Сем Альтман заявляв про те, що OpenAI планує залучити додаткове фінансування з боку Microsoft, щоб створити AGI – ШІ з людськими когнітивними здібностями. Він сказав, що партнерство OpenAI та гендиректора Microsoft Сатья Наделла «працює дуже добре».

Нагадаємо, що минулої п’ятниці стало відомо про звільнення Сема Альтмана з OpenAI. Скандальна історія розгорталася впродовж кількох днів. Вона вилилася в те, шо Альтмана підтримали майже всі співробітники OpenAI.

Вони написали відкритого листа правлінню з погрозою перейти працювати в Microsoft. Зрештою історія закінчила доволі очікувано – напередодні в OpenAI повідомили про повернення Сема Альтмана на посаду гендиректора.