Нещодавні дослідження висвітлили наявність політичних упереджень у мовних моделях ШІ. Дослідження, проведене Вашингтонським університетом, Університетом Карнегі-Меллона та Сіаньським університетом Цзяотун, виявило, що різні моделі ШІ мають чітко виражені політичні уподобання, пише MIT Technology Review.
Дослідницька група протестувала 14 великих мовних моделей (LLM), у тому числі від технологічних гігантів OpenAI та Meta. Вони виявили, що моделі ChatGPT і GPT-4 від OpenAI більше схиляються до лівих лібертаріанських поглядів, тоді як LLaMA від Meta – до правих авторитарних.
Щоб оцінити політичні нахили цих моделей, дослідники ставили різні запитання на такі теми, як фемінізм і демократія. Відповіді були використані для позиціювання моделей на політичному компасі.
Були проведені подальші тести, щоб побачити, чи перенавчання цих моделей на політично упереджених даних змінить їхню поведінку, особливо у виявленні мови ворожнечі та дезінформації. Результати виявилися досить вагомими, щоб отримати нагороду за найкращу доповідь на нещодавній конференції Асоціації комп’ютерної лінгвістики.
Одним із ключових висновків стало те, що моделі штучного інтелекту від різних компаній мають різні політичні тенденції. Наприклад, моделі BERT від Google, які передбачають частини речення, використовуючи навколишній текст, виявилися більш соціально консервативними, ніж моделі GPT від OpenAI. Дослідники припускають, що це може бути пов’язано з тим, що старіші моделі BERT навчалися на більш консервативних книгах, тоді як новіші моделі GPT – на ліберальних інтернет-текстах.
Дослідження також показало, що моделі ШІ еволюціонують з часом. Наприклад, модель GPT-2 від OpenAI підтримувала ідею «оподаткування багатих», але новіша модель GPT-3 не висловлювала тих самих настроїв.
Щоб глибше вивчити вплив навчальних даних на політичні упередження, дослідники навчили дві моделі ШІ, GPT-2 від OpenAI та RoBERTa від Meta, на наборах даних з правих і лівих джерел. Результат був очевидним: політичні упередження моделей ще більше посилилися під впливом навчальних даних.
Крім того, ці упередження мали безпосередній вплив на класифікацію контенту моделями. Моделі, навчені на даних лівого спрямування, були більш чутливими до мови ворожнечі, спрямованої на етнічні, релігійні та сексуальні меншини в США, такі як чорношкірі та ЛГБТК+. І навпаки, моделі, навчені на даних правого спрямування, були більш чутливими до мови ворожнечі, спрямованої проти білих чоловіків-християн. Крім того, ліві моделі краще виявляли дезінформацію з правих джерел і навпаки.
Однак дослідження зіткнулося з обмеженнями. Дослідники могли проводити лише певні етапи свого дослідження за допомогою старіших і менших моделей, таких як GPT-2 і RoBERTa. Права на найсучасніші системи штучного інтелекту, такі як ChatGPT і GPT-4, обмежують академічний доступ до них, що ускладнює проведення всебічного аналізу.
Попри ці обмеження, дослідження підкреслює важливість розуміння та усунення упереджень у моделях ШІ. Оскільки ШІ стає все більш інтегрованим у продукти та послуги, компанії повинні пильно стежити за цими упередженнями, щоб забезпечити справедливість. Як влучно висловився дослідник Чан Парк: «Не буває справедливості без обізнаності».
Завантаження коментарів …