
Науковці заявили про серйозну проблему сучасного штучного інтелекту: якщо нейромережі починають масово навчатися на контенті, створеному іншими ШІ, їхня якість різко погіршується. Це явище дослідники назвали “колапсом моделі”.
Про це повідомляє РБК-Україна з посиланням на Techxsplore.
Йдеться про ситуацію, коли алгоритми поступово накопичують помилки, втрачають точність і зрештою починають видавати беззмістовні або хибні відповіді. Причина — використання неякісних синтетичних даних замість інформації, створеної людьми.
Проблема стає дедалі актуальнішою, адже обсяг людського контенту обмежений, а компанії все частіше використовують для навчання штучно згенеровані тексти, зображення та інші матеріали.
Дослідження провели вчені з Великої Британії, Норвегії та Італії. Вони дійшли висновку, що навчання ШІ у “замкненому колі” майже неминуче веде до деградації системи.
Втім, дослідники знайшли й спосіб запобігти цьому. Виявилося, що навіть невелика кількість реальних даних від людей може зупинити процес деградації. За словами вчених, достатньо буквально одного “людського” фрагмента інформації, щоб модель не втрачала якість — навіть якщо решта даних створена машинами.
Також допомогти можуть закладені в алгоритм базові знання та попередні налаштування ще на етапі навчання.
Фахівці наголошують: відкриття допоможе краще зрозуміти природу так званих “галюцинацій” ШІ — випадків, коли чат-боти впевнено вигадують неправдиву інформацію або формують дивні відповіді без логічного пояснення.
У майбутньому дослідники планують перевірити ці принципи на складніших системах — зокрема на великих мовних моделях, безпілотних автомобілях та сучасних чат-ботах.