Вчений Microsoft та дослідник Йоркського університету в Англії Адріан де Вінтер "посадив" мовну модельGPT-4, що лежить в основі ChatGPT, грати в Doom без попереднього навчання.
Як повідомляє The Register, хоча ШІ загалом грав у гру, але виходило у нього це погано. Так, він пересувався рівнями, стріляв та навіть відкривав двері, однак були у нього й свої проблеми.
Зокрема, він часом застрягав у кутах і забував про противників, коли вони зникали з поля зору. При цьому сам GPT-4 отримав чіткі інструкції, що робити, якщо опонент на екрані відсутній, але персонаж отримує шкоди.
Автор проекту додає, що йому легко вдалося змусити ШІ стріляти. Хоча це була лише гра, нескладно уявити сценарій, за яким його б можна було змусити атакувати реальні цілі.
Зазначимо, що просто наказати GPT-4 пограти у якусь гру неможливо. Для цього науковець розробив компонент Vision, який викликає GPT-4V, що робить знімки екрану з ігрового двигуна і повертає описи структури стану гри.
Потім Вінтер поєднав це з моделлю агента, яка викликає GPT-4 для прийняття рішень на основі візуальних даних та попередньої історії. Модель агента отримала вказівку перетворювати свої відповіді на команди натискання клавіш, які мають значення для ігрового движка. Ця вся взаємодія працювала через рівень менеджера, що складається з прив'язки Python з відкритим вихідним кодом до двигуна C Doom, що працює на Matplotlib.
Інші новини про ChatGPT
Як повідомляв УНІАН, нещодавно чат-бот штучного інтелекту (ШІ) ChatGPT злякав користувачів - він почав відповідати довгими й безглуздими повідомленнями та розмовляти змішаними мовами. У виданні припустили, що причиною може бути занадто висока "температура" ChatGPT.
Також вийшло дослідження щодо згаданого GPT-4. Виявилось, що його легше змусити говорити неправду.
Минулого року невідомий розробник створив свій власний аналог "розумного" чат-бота ChatGPT, який, на відміну від оригіналу й схожих ШІ, призначений для допомоги хакерам створювати шкідливі програми і проводити фішингові атаки.