GPT-4 від OpenAI може становити «щонайбільше» незначний ризик допомогти людям у створенні біологічних загроз. Про це свідчать попередні тести компанії, пише Bloomberg.

OpenAI провела їх з метою зрозуміти й запобігти потенційній «катастрофічній» шкоді від своєї технології. Річ у тім, що чимало експертів, зокрема й деякі керівники технологічних компаній висловлювали занепокоєння щодо того, чи може ШІ допомогти зловмисникам у розробці біологічної зброї.

У межах дослідження OpenAI зібрала групу з 50 експертів з біології та 50 студентів, які вивчали біологію на рівні коледжу. Половині учасників запропонували виконати завдання, пов’язані зі створенням біологічної загрози, використовуючи інтернет та GPT-4. Іншій групі надали доступ лише до інтернету.

Порівнюючи результати двох груп, автори дослідження виявили незначне збільшення «точності та повноти для тих, хто мав доступ до мовної моделі». Тому дослідники дійшли висновку, що доступ до GPT-4 «забезпечує щонайбільше незначне поліпшення збору інформації для створення біологічної загрози».

Такий висновок в OpenAI назвали відправною точкою для подальших досліджень і обговорень у суспільстві.

Минулої осені OpenAI оголосила про створення нової команди, яка вивчатиме моделі штучного інтелекту для захисту від того, що вона називає «катастрофічними ризиками».