Системи розпізнавання емоцій запропонували тимчасово заборонити

Новини
13 грудня 2019

Системи розпізнавання емоцій запропонували тимчасово заборонити

Далі

Ильнур
Шарафиев

Редактор

Ильнур
Шарафиев

Редактор

Системи розпізнавання емоцій запропонували тимчасово заборонити. Про це йдеться в річному звіті інституту AI Now в Нью-Йорку. На думку вчених, технологія поки має «мало наукової основи», тому її не слід використовувати в рішеннях, які впливають на життя людей».

Незважаючи на відсутність наукових доказів про те, що машини постійно і правильно розпізнають емоції людей, цей ринок вже оцінюється в 20 млрд. доларів і швидко росте. Зараз технологія вже використовується для оцінки претендентів на робочі місця та осіб, підозрюваних в скоєнні злочинів. Причому системи тестуються і в інших областях — наприклад, у гарнітурах VR, щоб визначити емоційний стан спортсменів.

Крім того, вчені турбуються, що технологія може посилювати расове і гендерна нерівність. «Регулюючі органи повинні втрутитися, щоб серйозно обмежити використання систем, а компаніям, що займаються штучним інтелектом, слід припинити його впровадження», — відзначають в AI Now.

В США та Китаї на чотирьох жителів припадає одна камера спостереження

Зокрема, вчені послалася на нещодавнє дослідження Асоціації психологів США, в ході якого протягом двох років вивчалася більш тисячі статей за визначенням емоцій. Вони зробили висновок, що для визначення емоцій недостатньо проаналізувати тільки обличчя людини, а потрібно набагато більше даних.

У своїй доповіді AI Now закликала уряди і бізнес припинити використання технології розпізнавання осіб до тих пір, поки не знизяться ризики, а технологія не стане більш просунутою. Компанії, які просувають такі системи, вчені звинуватили у поширенні системного расизму і женоненавистничества».

Источник

Описание admin

Рекомендуем прочесть

Tesla представить двофакторну аутентифікацію

Новини 16 серпня 2020 Tesla представить двофакторну аутентифікацію Далі Ильнур Шарафиев Редактор Ильнур Шарафиев Редактор …

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *