Українська правда

Етичне впровадження ШІ. Як в Україні збираються регулювати нову галузь?

Етичне впровадження ШІ. Як в Україні збираються регулювати нову галузь?
0

В червні 14 українських IT-компаній створили саморегульовану організацію, яка підтримуватиме етичні способи впровадження штучного інтелекту в Україні. Ці компанії зобов'язалися розробляти інноваційні продукти з дотриманням принципів безпечного використання ШІ, проголошених у Добровільному кодексі поведінки.

До новоствореної організації можуть приєднатися й інші компанії за умови відповідності критеріям. Допомагатиме її розвитку Асоціація IT Ukraine, а Центр демократії та верховенства права (ЦЕДЕМ) взявся виконувати функції секретаріату.

У ЦЕДЕМ кажуть, що обрали м'який підхід до встановлення ШІ-регулювання, який отримав назву bottom-up: спочатку держава готує компанії до стандартів й лише після цього впроваджує законодавство. Першим етапом є період саморегулювання. Ми дізналися, що думають IT-компанії та експерти з приводу етичного впровадження ШІ в Україні. Але спочатку розповімо трохи про ШІ-регулювання в інших країнах.

ШІ-регулювання в США, ЄС, Китаї та Японії

У Сполучених Штатах Америки етичне впровадження штучного інтелекту є однією з ключових тем останніх років. В країні існує декілька підходів та ініціатив щодо цього питання. Так, у 2022 році Білим домом був представлений AI Bill of Rights — проєкт документа, який визначає права громадян у цифрову епоху:

▪️захист від алгоритмічної дискримінації;

▪️прозорість рішень систем ШІ;

▪️можливість відмови від повністю автоматизованих рішень;

▪️безпека даних і захист приватності.

Як зазначають фахівці, хоча ця програма не має обов'язкового характеру і не вимагає дотримання основних принципів, вона покликана служити основою для прийняття політичних рішень щодо штучного інтелекту у випадках, коли чинне законодавство чи політика не містять відповідних рекомендацій.

Варто також згадати й Executive Order on AI — президентський указ Джо Байдена від 2023 року, який встановлював вимоги до безпеки, прозорості та тестування ШІ перед масовим застосуванням. Цей указ вважався найбільш всеосяжним документом, який регулював ШІ-галузь в США. Він був скасований президентом Дональдом Трампом за кілька годин після його вступу на посаду 20 січня 2025 року.

Якщо ж говорити про нові ініціативи Білого дому, то нещодавно президент США Дональд Трамп підписав три виконавчі укази та представив амбітний AI Action Plan, який обіцяє зняти регуляторні бар'єри, прискорити будівництво дата-центрів і просувати американські технології в усьому світі. Ініціатива, з одного боку, передбачає, що США більше не стримуватимуть індустрію надмірними заходами контролю, як це роблять у Європі. Штатам із жорстким регулюванням штучного інтелекту (як-от Нью-Йорк) Трамп пригрозив втратою федерального фінансування.

Так виглядає стартова сторінка сайту ai.gov
Так виглядає стартова сторінка сайту ai.gov

А ще в американського президента є сайт ai.gov, де можна знайти інформацію про всі його ШІ-ініціативи. "Америка — це країна, яка розпочала гонку штучного інтелекту. І, як президент Сполучених Штатів, я сьогодні тут, щоб заявити, що Америка виграє", — заявив Трамп, виступаючи в липні перед керівниками технологічних компаній.

Своєю чергою американський Національний інститут стандартів і технологій (NIST) у 2023 році створив AI Risk Management Framework — рамку управління ризиками, яка допомагає компаніям створювати надійні та безпечні системи.

Великі технологічні корпорації такі як, Google, Microsoft, OpenAI, IBM, Meta, Amazon, також розробляють кодекси етики для своїх продуктів. 

Ось так виглядають деякі принципи техгігантів:

▪️прозорість алгоритмів;

▪️недопущення упередженості;

▪️відповідальність розробників за наслідки застосування;

▪️екологічна та енергетична ефективність систем.

У липні 2023 року сім провідних розробників ШІ-програм погодилися взяти на себе добровільні безпекові зобов'язання, запропоновані урядом США. Зокрема, компанії погодилися, аби їхні продукти тестували незалежні експерти. Техгіганти також пообіцяли віддавати пріоритет безпеці та співробітництву перед конкуренцією.

Для дослідження соціальних наслідків ШІ провідні американські університети створюють свої AI ethics labs, громадські організації активно дискутують про права людини та захист приватності, але загальний підхід такий: "інновації передусім, але відповідально". Йдеться про дозвіл компаніям швидко впроваджувати нові рішення, але одночасно й про створення гнучких стандартів, які захищають права людини.

Щодо Євросоюзу, то тут, схоже, все відбуватиметься через жорстке законодавче регулювання. Європарламентом у 2024 році був ухвалений EU AI Act — перший у світі комплексний закон про штучний інтелект. Ключовими принципами документа є:

▪️класифікація систем ШІ за рівнями ризику (від мінімального до неприйнятного);

▪️заборона "небезпечних практик" (наприклад, соціального скорингу як в Китаї);

▪️обов’язкова сертифікація та аудит для високоризикових систем (медицина, транспорт, правосуддя);

▪️жорстка відповідальність компаній за порушення.

EU AI Act: комплексний графік впровадження; фото з сайту fpf.org
EU AI Act: комплексний графік впровадження; фото з сайту fpf.org

Загалом в Євросоюзі акцент робитиметься на етику, права людини й запобігання зловживанням, але надмірне регулювання може сповільнити розвиток стартапів.

А ось Китай запропонував нещодавно створити міжнародну організацію для співпраці у сфері штучного інтелекту (ШІ-ООН? — ред). Як заявив прем'єр-міністр країни Лі Цян, розвиток ШІ не має перетворюватися на закриту сферу для кількох країн і компаній. За його словами, нині підходи різних країн до регулювання сильно відрізняються, і це заважає створити ефективну систему контролю. Прем'єр-міністр КНР закликав до координації зусиль і формування спільної рамки.

Лі Цян, прем'єр-міністр КНР; фото: Reuters
Лі Цян, прем'єр-міністр КНР; фото: Reuters

Як ви вже здогадалися ШІ-регулювання по-китайськи — це державний контроль і використання ШІ як владного інструменту. Воно охоплює державні дозволи, цензуру, обов’язкове ліцензування тощо. Прикладами застосування такого ШІ-регулювання є соціальний скоринг, масове спостереження, контроль контенту. Ці процеси в країні в основному регулюються документом від 2017 року A Next Generation Artificial Intelligence Development Plan, але існує і чимало нових правил та норм, які впливають на розвиток індустрії штучного інтелекту Китаю.

Експерти Массачусетського технологічного інституту відмічають, що політика фрагментованого та розрізненого регулювання ШІ в Китаї поступово змінюється. Згідно з цими принципами, держава запроваджує, наприклад, один комплект правил для служб алгоритмічних рекомендацій систем, схожих на TikTok, інший — для deepfakes і ще один — для генеративного штучного інтелекту.

Своєю чергою Японія орієнтується на концепцію Society 5.0 — суспільства, де цифрові технології (ШІ, IoT, робототехніка) інтегровані в повсякденне життя для підвищення якості життя людей. Це людиноцентричний підхід, де штучний інтелект повинен допомагати не лише бізнесу, але й суспільству загалом.

Основні цінності, яких при ШІ-регулюванні дотримуються японці — це прозорість і пояснення алгоритмів; недискримінація і справедливість; повага до приватності; співіснування людей і машин, а не заміна людей. В Японії є AI R&D Guidelines від 2017 року та AI Governance Principles від 2022 року, в яких прописані головні принципи.

Яким буде ШІ-регулювання в Україні?

У червні 2024 року Мінцифра презентувала Білу книгу регулювання ШІ —  документ, який детально описує підхід України щодо того, як у майбутньому регулюватимуть штучний інтелект. Глава відомства Михайло Федоров тоді зазначив, що запропоновані у цій книзі регулювання не діятимуть на військову сферу.

Скриншот з Білої книги регулювання ШІ від Мінцифри
Скриншот з Білої книги регулювання ШІ від Мінцифри

Через рік компанії Grammarly, MacPaw, LetsData, DroneUA, WINSTARS.AI, Gametree.me, YouScan.io, EVE.calls, Valtech, ЛУН, Yieldy, SoftServe, Uklon та Preply заснували в Україні організацію, яка підтримуватиме етичні способи впровадження ШІ.

Цілями та завданнями цієї саморегульованої організації (СРО) є:

▪️сприяння етичному та відповідальному використанню ШІ;

▪️впровадження положень кодексу;

▪️моніторинг дотримання встановлених норм серед членів СРО;

▪️підтримка інновацій та обмін досвідом між членами СРО.

Повідомляється, що компанії зобов'язалися щороку звітувати про впровадження безпечних рішень у своїх продуктах, а контроль за дотриманням принципів здійснюватимуть Центр демократії та верховенства права та Асоціація IT Ukraine.

У MacPaw нам повідомили, що компанія долучилася до створення організації, адже їй важливо визначати правила роботи з ШІ, а не просто пристосовуватися до змін. "Один з основних фокусів MacPaw сьогодні — робота з ШІ та його інтеграція у продукти компанії. Тому наша участь у першій подібній організації в Україні — це природній і логічний крок. Ініціатива допоможе компаніям розробляти системи ШІ етично, а також підготуватися до європейського регулювання та закону щодо ШІ в Україні", — повідав Director of AI в компанії MacPaw Володимир Кубицький.

Володимир Кубицький, Director of AI в MacPaw; фото з Facebook
Володимир Кубицький, Director of AI в MacPaw; фото з Facebook

За його словами, для MacPaw етичне використання ШІ означає створення технологій з повагою до користувачів, тому що ШІ повинен бути помічником, інструментом для розширення можливостей людини, а не засобом маніпуляції чи контролю.

"У роботі над розумним ШІ-помічником Eney для macOS ми багато уваги приділяємо саме приватності користувачів та забезпеченні їхнього контролю над персональними даними. Ми думаємо, як реалізувати підхід right to be forgotten, щоб користувачі могли повністю видалити інформацію, яку система зберегла про них. Ми не хочемо, щоб система знала більше, ніж їй потрібно", — пояснив Director of AI в MacPaw.

Він також навів приклади неетичного використання ШІ — це може бути використання персональних даних користувачів без їхньої згоди або дезінформація, коли алгоритми поширюють неправдиву інформацію, щоб вплинути на громадську думку. "Насправді, ШІ може використовуватися в різних зловмисних діях, зокрема кібератаках чи створенні дипфейків. Тому сьогодні важливо розробити ефективну систему регулювання ШІ і його використання", — відмітив спеціаліст.

На думку Володимира Кубицького, один із найбільших ризиків неетичного використання ШІ — це приватність, тому що люди дедалі більше довіряють ШІ свої персональні дані, думки й вподобання і не завжди розуміють, які наслідки це може мати. "Уся ця інформація потрапляє в систему і теоретично може десь зберігатись і передаватись. Система може накопичувати знання про людину й формувати її портрет: психологічний профіль, реакції, слабкі місця. На цьому тлі з'являється можливість для маніпуляції, навіть непомітної. Щоб уникнути цього, потрібні чіткі правила та культура відповідального використання. Варто розуміти, що система про вас знає і мати можливість це видалити або обмежити", — підсумував фахівець.

За словами аналітичної лінгвістки в Grammarly Олени Нагорної, ШІ має бути етичним, що передбачає постійну роботу над запобіганням упередженості та дискримінації.

Олена Нагорна, аналітична лінгвістка в Grammarly; фото з Linkedin
Олена Нагорна, аналітична лінгвістка в Grammarly; фото з Linkedin

"Люди мають зберігати контроль над своїми даними та тим, як вони використовують рекомендації ШІ. Неетичним ми вважаємо ШІ, який вводить користувачів в оману, створює системні нерівності для певних груп, використовується без належного тестування на предмет шкідливих результатів (наприклад, упереджену мову чи образливий контент) або позбавляє користувачів контролю", — зазначила лінгвістка.

У SoftServe нам розповіли, що для компанії етичне використання штучного інтелекту означає прозорість алгоритмів рішень, захист персональних даних та приватності, недопущення дискримінаційних упереджень у моделях, а також орієнтацію на створення реальної цінності для людини та бізнесу.

"Ми чітко бачимо й приклади неетичного застосування ШІ, від маніпуляцій громадською думкою через deepfake-контент до використання технологій у масових атаках чи шахрайських схемах. Це серйозні загрози та виклики, які потребують вирішення. Саме тому ми підтримуємо ініціативи, які формують рамку відповідального впровадження ШІ в Україні. У SoftServe ми розробили навчальні програми для команд, аби співробітники вміли правильно та безпечно працювати з ШІ", — пояснив співзасновник та член Ради директорів SoftServe Олег Денис.

Олег Денис, cпівзасновник SoftServe; фото з сайту biz.nv.ua
Олег Денис, cпівзасновник SoftServe; фото з сайту biz.nv.ua

За його словами, SoftServe впроваджує лише ті інструменти, що гарантують безпеку, а кожен продукт проходить перевірку команд з інформаційної безпеки, ІТ, юридичного відділу та інших, і лише після цього може стати частиною інфраструктури.

Олександр Чумак, який працює Chief Technical Officer в Uklon, заявив нам, що в сервісах Uklon функціонують 16 застосувань LLM та ML моделей, а також існує внутрішній асистент UklonAI, який допомагає автоматизувати рутинні завдання.

Олександр Чумак, Chief Technical Officer Uklon; фото: Uklon
Олександр Чумак, Chief Technical Officer Uklon; фото: Uklon

"Uklon має внутрішні політики щодо використання ШІ-інструментів, тому ми готові ділитися цим досвідом, щоб підвищувати обізнаність щодо етичних принципів роботи з ШІ. Співпраця в рамках саморегульованої організації допоможе побудувати відповідальну та інноваційну ШІ-екосистему в Україні", — відмітив фахівець.

У компанії також вважають, що людський контроль є обов'язковим, особливо в критично важливих системах, адже це дозволяє своєчасно виправляти помилки, адаптуватись до непередбачених ситуацій і гарантувати безпеку.


"На мою думку, відповідальне використання ШI інструментів — це необхідність, що допомагає формувати довіру до технологій. ШІ вже змінює економіку, освіту, медицину, тому від того, як ми його впроваджуємо, залежить майбутнє. Неетичне використання ШІ становить серйозні ризики. Щоб їм запобігти, потрібен комплексний підхід. Це й саморегуляція через добровільний етичний кодекс, і держрегулювання та адаптація законодавства до європейських норм, таких як EU AI Act. Крім того, ключовими є підвищення обізнаності як серед розробників, так і серед кінцевих користувачів, а також відкрита взаємодія між бізнесом, урядом та громадськими організаціями", — зазначив CTO в Uklon Олександр Чумак.

На думку автора книжки про генеративний ШІ, CEO у DevRain та CTO у DonorUA Олександра Краковецького, формально ми маємо справу не зі створенням нової організації в Україні, а з підписанням меморандуму низкою українських IT-компаній.

Олександр Краковецький, CEO у DevRain та CTO у DonorUA; фото з сайту dou.ua
Олександр Краковецький, CEO у DevRain та CTO у DonorUA; фото з сайту dou.ua

"Такий документ не має юридичної сили та радше виконує декларативну функцію, покликану привернути увагу до теми етичного використання ШІ. Проблема полягає в тому, що етика, на відміну від законодавства, не має чітких і універсальних критеріїв. Політично заявити про "етичне застосування ШІ" виглядає правильно, але на практиці може бути багато нюансів", — пояснив Олександр Краковецький.

Наприклад, якщо компанія користується сервісами від OpenAI, Anthropic чи Midjourney, проти яких правовласники подають судові позови, чи можна вважати це порушенням етики? Якщо автоматизація дизайну банерів за допомогою ШІ призводить до скорочення робочих місць, чи є це етично прийнятним? За словами експерта, такі приклади показують, що треба говорити не лише про етику як таку, а про конкретні стандарти та фреймворки.

"Частина положень меморандуму не належить до етичної площини, а стосується конкретних законодавчих вимог — наприклад, питання приватності та захисту даних уже врегульовані такими документами, як GDPR та AI Act в ЄС, HIPAA в США, закон про захист персональних даних в Україні. У такому разі це вже не про етику, а про обов'язкові норми, які мають юридичну силу. Читаючи документ, складається враження, що будь-який реальний проєкт у разі дотримання всіх заявлених принципів перетворюється на надто довгий і дорогий процес", — заявив фахівець.

Він сумнівається, що українські компанії з відносно обмеженими ресурсами зможуть виконати ці вимоги, якщо навіть такі гіганти, як OpenAI чи Meta, не демонструють достатньої прозорості у власних процесах навчання та тестування моделей.

"Ініціатива заслуговує на підтримку і позитивно, що компанії привертають увагу до теми етичного використання ШІ. Проте я вважаю більш цінним підхід, де є конкретика, стандарти й зрозумілі механізми контролю. Є і побоювання щодо потенційного законодавчого регулювання, адже воно може виявитися надмірно спрощеним і не врахувати всі нюанси розвитку технологій", — зауважив експерт.

А ось ще деякі думки Олександра Краковецького з приводу загроз неетичного використання ШІ та протидії цим загрозам:

▪️ШІ може стати інструментом контролю над людьми, маніпуляцій, обману, шантажу чи фінансових шахрайських схем; це універсальні загрози, які посилюються завдяки масштабності й швидкості, з якою працюють сучасні алгоритми;

▪️відомі компанії не зацікавлені у порушенні етичних або правових норм, оскільки для них найбільшим ризиком є втрата репутації; проте це не зупиняє зловмисників, які активно використовують нові інструменти для атак і збагачення; саме тому потрібна системна протидія на рівні держави та індустрії;

▪️один із ключових механізмів, який можна застосувати — це сертифікація рішень на основі штучного інтелекту; логіка може бути такою самою, як у випадку з іграми чи медичними препаратами: якщо ризик низький, достатньо внутрішньої самооцінки (self-assessment), але якщо рішення впливає на життя і безпеку людей — потрібні незалежні перевірки та сертифікація;

▪️схожий принцип може діяти й для ШІ-систем; компанії можуть самостійно визначати внутрішні процедури контролю якості своїх продуктів, однак наступним кроком має стати проходження незалежних галузевих бенчмарків; такі оцінювання здатні виявити або підтвердити відсутність ознак упередженості, маніпулятивних практик чи інших антиетичних аспектів.

У компанії LetsData нам повідали, що будують ШІ-радар, який у реальному часі виявляє інформаційні операції, підроблені акаунти та синтетичні ідентичності, тобто працюють з прикладами того, як технології можуть бути використані у шкідливий спосіб — від глибоких фейків до автоматизованого поширення пропаганди.

"Для нас етика — це не формальність, а вимога до інженерії. Ми долучилися до ініціативи саморегулювання, щоб разом із колегами закріпити правила гри: прозорість, аудит, регулярна звітність і практичний обмін досвідом. Це дозволить галузі швидше розвиватися, водночас підвищуючи рівень довіри до українських ШІ-рішень на світовому ринку", — зазначив співзасновник та CEO LetsData Андрій Кусий.

Андрій Кусий, співзасновник та CEO LetsData; фото з сайту ucu.edu.ua
Андрій Кусий, співзасновник та CEO LetsData; фото з сайту ucu.edu.ua

За його словами, небезпека безвідповідального штучного інтелекту полягає у тому, що він масштабує шкідливі дії: якщо раніше кампанія з дезінформації потребувала сотні людей і тижні роботи, то тепер це можна автоматизувати за години.

"Ризики — від підриву довіри в суспільстві й втручання у вибори до прямих фінансових втрат для бізнесу. Щоб запобігти цим загрозам, потрібен комплексний підхід: прозорий ризик-менеджмент (моделювання загроз і тестування безпеки моделей); контроль людини у рішеннях; захист даних та інтелектуальної власності; відкрита звітність і спільні правила саморегулювання", — відмітив CEO LetsData.

Board Advisor, North America Representative в R&D Center WINSTARS.AI Мар'яна Татарин розповіла нам, що неетичним використанням штучного інтелекту у компанії вважають прихований збір даних, "чорні скриньки" у критичних сферах, алгоритмічну дискримінацію чи використання ШІ для маніпуляцій і фейків.

Мар'яна Татарин, Board  Advisor в WINSTARS.AI
Мар'яна Татарин, Board  Advisor в WINSTARS.AI

"Ми підтримуємо ідею саморегуляції та впроваджуємо практики, які допомагають уникати подібних ризиків. Важливо діяти спільно: бізнес має брати на себе відповідальність і впроваджувати саморегуляцію через прозорі кодекси й незалежні перевірки, держава — встановлювати чіткі та сучасні правила гри, а суспільство — розвивати критичне мислення й цифрову грамотність", — зазначила експертка.

За словами засновника компанії EVE.calls Олексія Скрипки, долучення до саморегульованої ініціативи — це вклад у довіру. "Ми працюємо з голосовим штучним інтелектом із 2016 року та вже 9 років реалізуємо проєкти в Україні, США та Європі. Долучення до саморегульованої ініціативи — це вклад у довіру: і до нашої компанії, і до української ІТ-галузі в очах ЄС та міжнародних партнерів. Поява такої організації в Україні показує зрілість ринку ШІ", — відмітив підприємець.

Олексій Скрипка, засновник компанії EVE.calls
Олексій Скрипка, засновник компанії EVE.calls

На його думку, важливо розуміти, що технології часто випереджають закони, тож інколи формально порушення немає, але шкода реальна.

"Це видно на повсякденних прикладах: динамічні ціни в таксі чи доставці, коли алгоритм підвищує тарифи в окремих районах або для "платоспроможних" профілів і виникає прихована дискримінація; кредитний скоринг за непрямими ознаками — тип девайса, час активності, що дає відмови без прозорих підстав і фактично створює "цифрову дискримінацію"; алгоритмічний відбір резюме, який відтворює історичні перекоси компаній і несправедливо відсікає кандидатів", — пояснив Олексій Скрипка.

У компанії Valtech Ukraine також відзначили, що все зводиться до довіри.

Світлана Герасимова та Роман Кузів з компанії Valtech Ukraine
Світлана Герасимова та Роман Кузів з компанії Valtech Ukraine

"Якщо люди не віритимуть, що ШІ використовується чесно й безпечно, вони просто відмовляться від нього. А це означає втрату шансів для розвитку: і для бізнесу, і для науки, і для держави. Крім того, штучний інтелект напряму торкається наших прав — на приватність, справедливість, свободу. Якщо не ставити рамки, можна отримати інструмент контролю замість інструмента прогресу. Як і будь-який інструмент, штучний інтелект можна застосовувати як в корисливих цілях, так і заподіювати шкоду суспільству", — заявили у коментарі керуюча директорка Valtech Ukraine Світлана Герасимова та керівник відділу технологій компанії Роман Кузів.

А ось бренд та бізнес директор компанії ЛУН Денис Суділковський повідав нам, що приєднання його компанії до організації — це визнання власної відповідальності.

Денис Суділковський, бренд та бізнес директор ЛУН; фото з сайту cedem.org.ua
Денис Суділковський, бренд та бізнес директор ЛУН; фото з сайту cedem.org.ua

"Хто 20 років тому міг подумати, що соціальні мережі впливатимуть на демократії? А як штучний інтелект змінить наш світ у наступні 10? Ми, можливо, й не визначаємо ці процеси, але принаймні намагаємося тримати в етичних рамках наслідки та зміни, які приходять разом із поширенням штучного інтелекту, — через розробку правил і практик використання інновацій", — зазначив Денис Суділковський.

За його словами, ЛУН вже 17 років допомагає людям із придбанням власного житла та розповідає покупцям правду про омріяну квартиру, район чи навіть ціле місто. І найбільшою загрозою на цьому ринку є те, що ШІ стирає межі правди.

"Зробити фейкові фото неіснуючої квартири чи навіть "зняти" відеоогляд — для шахраїв настає "золота епоха". Це виклик: як уберегти людей від обману і верифікувати не лише житло, а й самих продавців як реальних живих людей? Окрім власних рішень для безпеки, ми інтегруємо сервіси від "Дії" у наші продукти, адже віримо в силу колективних зусиль", — пояснив підприємець.

На думку топменеджера, людство не встигає за змінами.

"Хто має нести відповідальність, якщо ШІ образить чи завдасть шкоди користувачу? Чи має ШІ мати свободу слова? Як довіряти системі, якщо ми не знаємо, на яких даних вона навчена і якими алгоритмами чи обмеженнями керується? А чи дійсно ШІ служить нашим інтересам, а не інтересам корпорацій чи інших держав? Ми, як адепти інновацій, хочемо допомогти зробити світ безпечнішим для всіх. А це насамперед — справедливі правила в інтересах людини", — підсумував Денис Суділковський.
Поділитися:
Посилання скопійовано
Реклама:
Реклама: