Microsoft відмовляється від інструментів для розпізнавання емоцій, статі й віку

21 червня у Microsoft повідомили, що більше не продаватимуть технології, які мають визначати стать, вік та емоції людини. Компанія пішла на цей крок зокрема через критику низки науковців та активістів, які стверджували, що таке програмне забезпечення може бути «упередженим і ненадійним», пише NYT.

Головне

  • Microsoft поступово відмовиться від штучного інтелекту для розпізнавання емоцій, статі й віку. Нові користувачі не матимуть доступ до цих функцій, а вже наявні втратять його протягом року.
  • Компанія пішла на такий крок зокрема через критику низки науковців та активістів, які стверджували, що таке програмне забезпечення може бути «упередженим, ненадійним або інвазивним».
  • Інструменти аналізу віку й статі, емоцій можуть бути корисними в інтерпретації зображень для людей з вадами зору. Однак «існує величезна кількість культурних, географічних та індивідуальних варіацій у тому, як ми виражаємо себе», каже голова відділу ШІ Наташа Кремптон. Зокрема, додала вона, так званий гендерний класифікатор системи був бінарним, «і це не відповідає цінностям» Microsoft.

Деталі

Зміни є частиною політики Microsoft, спрямованої на більш жорсткий контроль над своїми продуктами штучного інтелекту. Зокрема зараз компанія орієнтується на 27-сторінковий документ «Стандарт відповідального штучного інтелекту». У ньому прописано, що ШІ не повинен негативно впливати на суспільство.

Microsoft також змінить умови використання функції розпізнавання обличчя. Ті, хто хочуть ним користуватися, мають подати заявку на доступ і пояснити, як саме застосовуватимуть інструмент. Наприклад, Uber використовує програмне забезпечення у своєму додатку, щоб переконатися, що обличчя водія відповідає ідентифікатору його облікового запису.

Інструменти із використанням ШІ регулярно піддаються критиці. Наприклад, у 2020 році дослідники виявили, що програми, які перетворюють мовлення на текст, розроблені Microsoft, Apple, Google, IBM і Amazon, менш ефективні для темношкірих людей. Система Microsoft була найкращою, але помилково ідентифікувала 15% слів для білих людей і 27% — темношкірих.

Раніше DOU розповідав про інженера Google, який вважає, що AI-система чат-ботів, над якою він працював з осені 2021-го, здатна мислити, висловлювати власну думку й почуття, як семирічна дитина. Компанія вивчила докази співробітника та вирішила відсторонити його від роботи за порушення конфіденційності.

Похожие статьи:
У Києві планують облаштувати сховища з автоматизованою системою відкриття, а також встановити модульні залізобетонні об’єкти...
ІТ-компанія N-iX 15 вересня відкрила офіс у Івано-Франківську. Офіс компанії знаходиться в центрі міста за адресою вул....
Нещодавно група «Технарі» представила «єППО» — застосунок для смартфона, за допомогою якого можна повідомити сили...
Длительность курса: 27 академических часов: 2 занятия по 3 часа в неделю.График занятий: вторник, четверг — 18:30 —...
Внаслідок російської атаки по житловому мікрорайону у Сумах 17 листопада загинув спортсмен і програміст Сергій...
Яндекс.Метрика