Що несе відповідальність ШІ?
Оскільки штучний інтелект (ШІ) відіграє більшу роль у нашому повсякденному житті, більш важливо, ніж будь-коли, що системи штучного інтелекту побудовані для забезпечення корисного, безпечного та надійного досвіду для всіх.
Саме тому корпорація Майкрософт розробляє та розгортає технології за допомогою відповідальних практик зі створення ШІ. Відповідальний ШІ має намір тримати людей і їх цілі в центрі процесу проектування, і вважає переваги і потенціали шкоди, які ШІ системи можуть мати на суспільстві.
Наша робота керується основним набором шести принципів відповідального ШІ, і ми приймаємо крос-корпоративний підхід через передові дослідження, найкращі інженерні системи породи, а також досконалість у політиці та управлінні.
Відповідальні принципи ШІ
Ці шість принципів лежать в основі всіх наших зусиль зі ШІ по всій компанії:
-
Справедливість – системи ШІ Microsoft розроблено з якістю обслуговування, доступністю ресурсів і мінімізацією потенціалу стереотипів на основі демографічних показників, культури та інших факторів.
-
Надійність і безпека – системи AI корпорації Майкрософт розробляються відповідно до наших ідей, цінностей і принципів дизайну, щоб не завдавати шкоди в світі.
-
Конфіденційність і безпека . Завдяки збільшеній залежності від даних для розробки та навчання систем ШІ ми встановили вимоги, щоб дані не просочилися та не розголошувалися.
-
Інклюзивність . Системи AI корпорації Майкрософт мають розширювати можливості та залучати спільноти по всьому світу, а для цього ми співпрацюємо з недостатньо обслуговуючими спільнотами меншин для планування, тестування та побудови систем ШІ.
-
Прозорість – Люди, які створюють системи AI, повинні бути відкриті про те, як і чому вони використовують ШІ, і відкрити про обмеження системи. Крім того, кожен повинен розуміти поведінку ШІ-систем.
-
Підзвітність – кожен несе відповідальність за те, як технології впливають на світ. Для корпорації Майкрософт це означає, що ми постійно впроваджуємо свої принципи та враховуємо їх у всьому, що ми робимо.
Перегляньте ці відео, щоб дізнатися більше про наші принципи використання ШІ.
Відповідальний стандарт AI корпорації Майкрософт
Відповідальний стандарт AI – це набір корпоративних правил, які допомагають гарантувати, що ми розробляємо та розгортаємо технології ШІ таким чином, щоб вони відповідали нашим принципам ШІ.
Ми інтегруємо потужні внутрішні практики управління по всій компанії, останнім часом оновивши наш Відповідальний стандарт AI. Завдяки цьому оновленню ми прагнули поліпшити свій попередній стандарт, випущений восени 2019 року, що робить його більш конкретним і інтерактивним, а також легше інтегруватися в існуючі інженерні практики.
Ми вважаємо, що ми вдумливо, крос-дисциплінуємо підхід до цієї роботи, консультуючи експертів у корпорації Майкрософт і за її межами, щоб переконатися, що ми навмисно інклюзивні та передові мислення. Ми вважаємо, що наш Відповідальний стандарт AI є міцною основою для дозрівання практики відповідального ШІ та мінливих нормативних вимог.
Примітка.: Щоб переглянути повний посібник, див. статтю Microsoft Responsible AI Standard.
Використання даних
Наш підхід до захисту конфіденційності та даних обґрунтований на наших переконаннях, що клієнти володіють власними даними та забезпечують, щоб будь-який продукт або послуга, які ми надаємо, була побудована з конфіденційністю за допомогою дизайну. Ми визначили чіткі принципи конфіденційності, які містять зобов'язання бути прозорими в нашій практиці конфіденційності, пропонувати змістовні варіанти конфіденційності та завжди відповідально керувати даними, які ми зберігаємо та обробляємо.
Щоб дізнатися більше, перегляньте відповідальний ШІ в дії в корпорації Майкрософт.