Під час презентації Google I/O представили оновлену флагманську модель штучного інтелекту Gemini 1.5 Pro, яка може аналізувати ще більші документи, кодові бази, відео та аудіозаписи. Про це пише TechCrunch.

Gemini 1.5 Pro може приймати до 2 мільйонів токенів, розділених бітів необроблених даних, як-от склади fan, tas і tic у слові fantastic. Це також вдвічі більше, ніж у попередній моделі. Загалом 2 мільйони токенів еквіваленті близько 1,4 мільйона слів, двом годинам відео або 22 годинам аудіо.

Велика кількість токенів також дозволяє покращити загальну продуктивність штучного інтелекту. На відміну від менших моделей, 1.5 Pro не так швидко забуватиме контекст попередніх розмов, а отже не буде переходити з теми на тему. Це також потенційно може дати краще згенеровані та більш контекстуальні відповіді на питання.

Google також стверджує, що модель 1.5 Pro зазнала багатьох покращень протягом кількох місяців завдяки покращенням алгоритму. В компанії кажуть, що модель стала кращою у створенні коду, логічних міркуваннях, плануванні, багатоходовій розмові та розумінні аудіо й зображень.

Крім того, Google також представив Gemini 1.5 Flash – меншу та ефективнішу модель, яка була створена для вузьких та високочастотних генеративних навантажень ШІ. Попри це, Flash також може аналізувати текст, відео, аудіо та зображення так само як і Pro, але генерувати лише текст.

Загалом Gemini 1.5 Flash більше підійде для таких задач, як підсумовування тексту, повідомлень в чатах, аналізу підписів на відео та зображеннях та для пошуку даних у великих документах та таблицях.

“Gemini Pro призначена для набагато більш загальних або складних, часто багатоетапних завдань. Але як розробник, ви дійсно хочете використовувати Flash, якщо вам дуже важлива швидкість виведення моделі”, – сказав Джош Вудворд, віцепрезидент Google Labs.

Серед іншого, обидві моделі Gemini також незабаром отримають кеш контексту, що дозволить розробникам зберігати велику кількість інформації у кеші моделі, щоб пізніше вона могла швидше отримувати доступ до цих даних.