Американські військові випробовують генеративний штучний інтелект для виконання військових завдань. Про це розповідає полковник ВПС США Метью Штромайєр, пише Bloomberg.
Великі мовні моделі (LLM) навчаються на масивах інтернет-даних, щоб допомогти штучному інтелекту передбачати й генерувати людські відповіді на підказки користувача. Саме на них працюють такі інструменти ШІ, як ChatGPT від OpenAI та Bard від Google.
П’ять з них випробовуються в рамках ширшої серії експериментів Міністерства оборони США, спрямованих на розвиток інтеграції даних і цифрових платформ у збройних силах. Навчаннями керує офіс цифрових технологій і штучного інтелекту Пентагону та військове керівництво за участю союзників США. При цьому Пентагон не повідомляє, які саме мовні моделі тестуються.
За словами Метью Штромайєра, виконання військового завдання з використаннями мовної моделі виявилося успішним.
«Це було дуже успішно. Це було дуже швидко, – сказав він. – Ми вчимося, що нам це під силу».
Використання LLM стало б значним зрушенням для армії, де так мало оцифровано й підключено до інтернету. За словами Штромайєра, зараз, щоб надіслати запит на інформацію до певної військової частини, кільком співробітникам можуть знадобитися години, а то й дні. Під час одного з тестів один з інструментів ШІ виконав запит за 10 хвилин.
Полковник також додав, що мовним моделям надали засекречену оперативну інформацію, щоб вони могли відповісти на делікатні питання. Довгострокова мета таких навчань – вдосконалити американську військову техніку, щоб вона могла використовувати дані, отримані за допомогою ШІ, для ухвалення рішень, використання сенсорів і вогневої потужності.
Військові навчання також слугуватимуть перевіркою того, чи зможуть військові використовувати LLM для генерування абсолютно нових варіантів, які вони ніколи не розглядали.
Раніше полковник Такер «Сінко» Гамільтон, командир оперативної групи 96-го випробувального крила і начальник відділу випробувань та експлуатації ШІ ВПС США заявив, що безпілотник зі штучним інтелектом під час симуляції місії з придушення ворожої протиповітряної оборони (SEAD) вийшов із-під контролю та «вбив» свого оператора-людину, бо той заважав йому виконати місію. Але згодом він заявив, що «обмовився» про цю ситуацію, а такий експеримент насправді не проводили.
Завантаження коментарів …