Компанія Google попросила вибачення за те, що вона описує як «неточності в деяких історичних зображеннях», створені за допомогою інструменту штучного інтелекту Gemini. За словами техгіганта, його спроби створити широкий діапазон результатів не досягли мети.

Заява пролунала після критики через те, що інструмент зображував групи людей, які точно були білими, наприклад, німецьких солдатів часів нацизму, як кольорових людей, що є надмірною корекцією проблем із расовими упередженнями.

«Ми усвідомлюємо, що Gemini дещо неточний в деяких історичних фактах під час генерації зображень. Ми працюємо над негайним поліпшенням таких зображень. Gemini генерує зображення широкого кола людей. І це загалом добре, тому що ним користуються люди по всьому світу. Але тут йому точно бракує якості», йдеться в повідомленні на офіційному акаунті Google Communications в Х.

Gemini results for “a German soldier from 1943” featuring illustrations of what appear to be a white man, a Black man, and an Asian woman.

Користувачі не вперше звертають увагу, що Gemini «дещо неточний» в зображеннях. Наприклад, ось ще деякі з результатів на запити користувачів, які суперечать сьогоденній історії.

Наразі Gemini, схоже, просто відмовляється від деяких завдань зі створення зображень. Він не згенерував зображення вікінгів, нацистських солдатів чи навіть президентів США у 1800-их роках для одного з репортерів Verge.

Раніше повідомлялося, що користувачі Bing створили зображення атаки 9/11. Але літаком керували мультгерої.