
Нове дослідження науковців з Єрусалим показало: сучасні нейромережі, зокрема ChatGPT, дедалі частіше оцінюють людей не як особистостей, а як набір окремих характеристик. Це, на думку дослідників, створює ризики упереджених рішень.
У темі розбиралося РБК-Україна з посиланням на роботу науковців, опубліковану у журналі Proceedings of the Royal Society A Mathematical Physical and Engineering Science. Вчені проаналізували понад 43 тисячі симуляцій за участю штучного інтелекту та людей.
Дослідники Янів Довер і Валерія Лерман виявили, що ШІ формує своєрідну «довіру» до людей, але робить це інакше, ніж людина.
На відміну від інтуїтивного людського сприйняття, алгоритми розбивають особистість на окремі показники — компетентність, чесність, доброзичливість — і оцінюють кожен із них окремо, фактично як у таблиці.
Дослідження також показало, що ШІ може демонструвати упередженість. У змодельованих фінансових ситуаціях рішення систем змінювалися залежно від статі чи релігії людини — навіть за однакових інших умов.
Крім того, різні моделі можуть давати протилежні оцінки одній і тій самій людині: те, що одна система вважає позитивом, інша — недоліком.
Штучний інтелект уже активно застосовується у відборі кандидатів на роботу, оцінці кредитоспроможності та навіть у медицині. Водночас, наголошують вчені, алгоритми не «бачать» людину — вони працюють із даними, що може призводити до прихованих і складних для виявлення упереджень.
Дослідники закликають уважніше ставитися до ролі ШІ в ухваленні рішень, адже його вплив на життя людей стрімко зростає.