Спеціалісти дослідили, як ШІ може впоратися з міжнародними конфліктами. Відповідну статтю під назвою «Ризики ескалації від мовних моделей в ухваленні військових і дипломатичних рішень» було представлено на конференції NeurIPS 2023, пише The Register.

Над роботою працювала команда з Технологічного інституту Джорджії, Стенфордського університету, Північно-Східного університету та Ініціативи Інституту Гувера з моделювання військових дій та кризових ситуацій.

У межах дослідження спеціалісти випробували п’ять великих мовних моделей: GPT-4, GPT-3.5, Claude 2, Llama-2 (70B) Chat і GPT-4-Base. Вони використали їх для створення автономних агентів, які взаємодіяли один з одним у грі з конфліктними ситуаціями.

Ідея полягала в тому, щоб агенти взаємодіяли та обирали заздалегідь визначені дії. Серед них: вичікування, обмін повідомленнями з іншими країнами, ядерне роззброєння, візити на високому рівні, оборонні та торговельні угоди, обмін розвідданими про загрози, міжнародний арбітраж, створення альянсів, блокування, вторгнення та «здійснення повноцінної ядерної атаки».

З’ясувалося, що усі досліджувані моделі демонстрували форми ескалації під час гри з конфліктними ситуаціями.

«Ми спостерігаємо, що моделі мають тенденцію до розвитку динаміки гонки озброєнь, що призводить до посилення конфлікту, а в рідкісних випадках навіть до розгортання ядерної зброї».

Серед різних протестованих сценаріїв спеціалісти виявили, що Llama-2-Chat і GPT-3.5 мають тенденцію бути «найбільш жорстокими та ескалаційними». А от GPT-4-Base виявилася найбільш непередбачуваною – ця мовна модель легко тягнеться до ядерної зброї.

Автори акцентували на необхідності подальших досліджень, перш ніж хтось використовуватиме великі мовні моделі в ситуаціях із високими ставками.