«Люди як дані»: популярний ШІ опинився у центрі дискусії про емпатію

Нове дослідження науковців з Єрусалим показало: сучасні нейромережі, зокрема ChatGPT, дедалі частіше оцінюють людей не як особистостей, а як набір окремих характеристик. Це, на думку дослідників, створює ризики упереджених рішень.

У темі розбиралося РБК-Україна з посиланням на роботу науковців, опубліковану у журналі Proceedings of the Royal Society A Mathematical Physical and Engineering Science. Вчені проаналізували понад 43 тисячі симуляцій за участю штучного інтелекту та людей.

Як ШІ «оцінює» людину

Дослідники Янів Довер і Валерія Лерман виявили, що ШІ формує своєрідну «довіру» до людей, але робить це інакше, ніж людина.

На відміну від інтуїтивного людського сприйняття, алгоритми розбивають особистість на окремі показники — компетентність, чесність, доброзичливість — і оцінюють кожен із них окремо, фактично як у таблиці.

Упередження і різні «моральні компаси»

Дослідження також показало, що ШІ може демонструвати упередженість. У змодельованих фінансових ситуаціях рішення систем змінювалися залежно від статі чи релігії людини — навіть за однакових інших умов.

Крім того, різні моделі можуть давати протилежні оцінки одній і тій самій людині: те, що одна система вважає позитивом, інша — недоліком.

Чому це вже проблема

Штучний інтелект уже активно застосовується у відборі кандидатів на роботу, оцінці кредитоспроможності та навіть у медицині. Водночас, наголошують вчені, алгоритми не «бачать» людину — вони працюють із даними, що може призводити до прихованих і складних для виявлення упереджень.

Дослідники закликають уважніше ставитися до ролі ШІ в ухваленні рішень, адже його вплив на життя людей стрімко зростає.

Leave a Reply Скасувати коментар