Компанія Alphabet Inc застерігає своїх співробітників щодо використання чат-ботів, зокрема Bard, одночасно з його просуванням у світі. Про це пише Reuters із посиланням на обізнаних із ситуацією людей.

За їхніми словами, материнська компанія Google порадила співробітникам не вводити свої конфіденційні матеріали в чат-боти зі штучним інтелектом. Компанія підтвердила це, посилаючись на давню політику щодо захисту інформації.

Окрім цього, Alphabet також попередила своїх інженерів уникати прямого використання комп’ютерного коду, який можуть генерувати чат-боти.

У відповідь на прохання прокоментувати ситуацію компанія заявила, що Bard може вносити небажані пропозиції щодо коду, але, з усім тим, він допомагає програмістам. Google також заявив, що прагне бути прозорим щодо обмежень своєї технології.

Занепокоєння показує, як Google хоче уникнути шкоди для бізнесу від програмного забезпечення, яке вона запустила в конкуренції з ChatGPT. На кону в перегонах Google проти прихильників ChatGPT, OpenAI та Microsoft Corp, стоять мільярди доларів інвестицій, а також досі незліченні доходи від реклами та хмарних технологій від нових програм ШІ.

Обережність Google також відображає те, що стає стандартом безпеки для корпорацій, а саме: попередження персоналу про використання загальнодоступних чат-програм.

Станом на січень, 43% спеціалістів використовували ChatGPT або інші інструменти штучного інтелекту, часто не повідомляючи про це своїх начальників. Про це свідчать результати опитування майже 12 тис. респондентів, зокрема з провідних американських компаній, проведеним сайтом Fishbowl.

Раніше повідомлялося, що Велика Британія восени цього року прийме перший великий глобальний саміт із питань безпеки штучного інтелекту. На саміті планується розглянути ризики, пов’язані зі штучним інтелектом. Також тут обговорюватимуть, як їх можна пом’якшити за допомогою скоординованих на міжнародному рівні дій.