Компанія OpenAI послабила заборону на використання ChatGPT у воєнних цілях. Що насправді включає нова політика

Estimated read time 1 min read

Лабораторія досліджень штучного інтелекту OpenAI лише послабила обмеження на використання штучного інтелекту у воєнних цілях, а не зняла їх повністю.

Про це пише видання Business Insider.

Зазначається, що у неоголошеному оновленні політики використання ШІ розробники скасували широку заборону на використання технології для «воєнних справ». Однак новий текст все ще забороняє використовувати служби OpenAI для розробки зброї, травмування людей або знищення майна.

Нові правила використання OpenAI тепер містять такий принцип, як «Не завдавай шкоди іншим» — широкий у застосуванні, легко зрозумілий і актуальний у багатьох контекстах. Також перелік містить заборону конкретних випадків, як-от розробка або використання зброї.

Окремі експерти зі штучного інтелекту стурбовані тим, що оновлена політика OpenAI надто узагальнена, особливо з огляду на те, що технологія штучного інтелекту вже використовується під час війни бойовиків ХАМАСу та Ізраїлю у Газі.

Ізраїльські військові заявили, що використовували штучний інтелект для визначення цілей для бомбардування на території Палестини. Експерти відзначають, що оновлена політика все ще досить розпливчаста і залежить від трактування. Також є питання, як компанія збирається забезпечувати її виконання.

Компанія OpenAI не розкриває мети оновлення політики використання, але є припущення, що зміни потенційно можуть відкрити двері для майбутніх контрактів із військовими.

Представник OpenAI розповів, що існують випадки використання ШІ стосовно питань національної безпеки, які відповідають місії компанії, що частково й призвело до змін. Наприклад, OpenAI уже співпрацює з Агентством перспективних оборонних досліджень, «щоб стимулювати створення нових інструментів кібербезпеки для захисту програмного забезпечення з відкритим кодом, від якого залежить критична інфраструктура та галузі».

Раніше повідомлялося, що компанія OpenAI змінила правила використання своїх технологій, зокрема ChatGPT. Розробники видалили з політики використання заборони на застосування сервісів у військових цілях. До 10 січня 2024 року сторінка «Політики використання» OpenAI включала пряму заборону на «діяльність, яка має високий ризик фізичної шкоди, включаючи», зокрема, «розробку зброї» та «військові дії».

Схожі матеріали

Більше матеріалів автора