ШІ може “зламатися” через навчання на власних відповідях — вчені попереджають про небезпечний ефект

ВІСНИК.Академія15 Травня, 202659 Views

Науковці заявили про серйозну проблему сучасного штучного інтелекту: якщо нейромережі починають масово навчатися на контенті, створеному іншими ШІ, їхня якість різко погіршується. Це явище дослідники назвали “колапсом моделі”.

Про це повідомляє РБК-Україна з посиланням на Techxsplore.

Йдеться про ситуацію, коли алгоритми поступово накопичують помилки, втрачають точність і зрештою починають видавати беззмістовні або хибні відповіді. Причина — використання неякісних синтетичних даних замість інформації, створеної людьми.

Проблема стає дедалі актуальнішою, адже обсяг людського контенту обмежений, а компанії все частіше використовують для навчання штучно згенеровані тексти, зображення та інші матеріали.

Дослідження провели вчені з Великої Британії, Норвегії та Італії. Вони дійшли висновку, що навчання ШІ у “замкненому колі” майже неминуче веде до деградації системи.

Втім, дослідники знайшли й спосіб запобігти цьому. Виявилося, що навіть невелика кількість реальних даних від людей може зупинити процес деградації. За словами вчених, достатньо буквально одного “людського” фрагмента інформації, щоб модель не втрачала якість — навіть якщо решта даних створена машинами.

Також допомогти можуть закладені в алгоритм базові знання та попередні налаштування ще на етапі навчання.

Фахівці наголошують: відкриття допоможе краще зрозуміти природу так званих “галюцинацій” ШІ — випадків, коли чат-боти впевнено вигадують неправдиву інформацію або формують дивні відповіді без логічного пояснення.

У майбутньому дослідники планують перевірити ці принципи на складніших системах — зокрема на великих мовних моделях, безпілотних автомобілях та сучасних чат-ботах.

Leave a Reply Скасувати коментар