Побудована на основі великої мовної моделі з відкритим вихідним кодом Mistral 7B, яка може похвалитися сімома мільярдами параметрів, Quiet-STaR демонструє ланцюжок своїх "міркувань", демонструючи проміжні результати перед тим, як надавати фінальну відповідь.
Відтак користувачі можуть оцінити і вибрати найточнішу відповідь та побачити, як ШІ "міркувала". Цікаво, що ця функція призвела до помітного підвищення точності результатів, які видавала модель.
- Хоча загальний показник точності Quiet-STaR у 47,2% може здатися не надто вражаючим, це помітне збільшення порівняно з точністю 36,3%, досягнутою без додаткового навчання міркуванню.
- Ще більш вражаючим є прогрес моделі в математиці, де вона подвоїла свою майстерність з 5,9% до 10,9% правильних відповідей.
Чому це важливо
Ці успіхи не можуть залишатися непоміченими, оскільки вони вказують на потенціал подолання розриву між сучасними мовними моделями і можливостями людського мислення. Це може ознаменувати нову еру ШІ, здатного міркувати на основі здорового глузду – завдання, яке ставило в глухий кут навіть найдосконаліших чат-ботів сьогодні.
Наслідки розробки Quiet-STaR величезні: вона може посилити роль ШІ в різних галузях і навіть сприяти створенню більш досконалого, здатного до міркувань ШІ в майбутньому. Оскільки ШІ-спільнота продовжує стежити за розвитком Quiet-STaR і подібних моделей, пошук ШІ, здатного мислити і міркувати, як людина, робить багатообіцяючий крок вперед.