Вчені стверджують, що AI здатен на спонтанне людське розуміння
Дослідники давали штучному інтелекту завдання на вибір одного зайвого об’єкта, використовуючи текст або зображення 1854 природних об’єктів, і виявили, що LLM створили 66 концептуальних вимірів для їхньої організації, так само як це роблять люди. Китайські дослідники стверджують, що знайшли докази того, що великі мовні моделі (LLM) можуть розуміти та обробляти природні об’єкти, такі як люди. Вони припускають, що це відбувається спонтанно, навіть без спеціального навчання цьому.
За даними дослідників з Китайської академії наук та Південнокитайського технологічного університету в Гуанчжоу, деякі штучні інтелекти (такі як ChatGPT або Gemini) можуть відображати ключову частину людського пізнання, а саме сортування інформації. Їхнє дослідження, опубліковане в Nature Machine Intelligence, досліджувало, чи можуть моделі LLM розвивати когнітивні процеси, подібні до тих, що використовуються для представлення об’єктів людиною. Або, іншими словами, з’ясувати, чи можуть моделі LLM розпізнавати та класифікувати речі на основі функцій, емоцій, середовища тощо.
Магістри права (LLM) створили концептуальні виміри, як і люди
Щоб з’ясувати, чи це так, дослідники дали штучному інтелекту завдання на вибір одного незвичайного об’єкта, використовуючи або текст (для ChatGPT-3.5), або зображення (для Gemini Pro Vision). Для цього вони зібрали 4,7 мільйона відповідей на 1854 природні об’єкти (такі як собаки, стільці, яблука та автомобілі). Вони виявили, що зі створених моделей було створено шістдесят шість концептуальних вимірів для організації об’єктів так, як це роблять люди. Ці виміри виходили за рамки базових категорій (таких як «їжа») та охоплювали складні атрибути, включаючи текстуру, емоційну релевантність та придатність для дітей.
Вчені також виявили, що мультимодальні моделі (що поєднують текст і зображення) ще більше узгоджуються з людським мисленням, оскільки штучний інтелект обробляє як візуальні, так і семантичні ознаки одночасно. Крім того, команда виявила, що дані сканування мозку (нейровізуалізація) виявили перетин між тим, як штучний інтелект і людський мозок реагують на об’єкти.
Ці висновки цікаві та, схоже, свідчать про те, що системи штучного інтелекту можуть бути здатні до справжнього «розуміння» по-людськи, а не просто імітувати реакції. Це також свідчить про те, що майбутні штучні інтелекти можуть мати більш інтуїтивне, сумісне з людиною мислення, що є важливим для робототехніки, освіти та співпраці між людиною та штучним інтелектом. Однак, також важливо зазначити, що LLM не розуміють об’єкти так, як люди емоційно чи емпірично.
Розуміння ШІ не ґрунтується на життєвому досвіді
Штучний інтелект працює, розпізнаючи закономірності в мові чи зображеннях, які часто тісно відповідають людським поняттям. Хоча на перший погляд це може здаватися «розумінням», воно не ґрунтується на життєвому досвіді чи сенсорно-моторній взаємодії. Також деякі частини представлень ШІ можуть корелювати з активністю мозку, але це не означає, що вони можуть «мислити» як люди або мати ту саму архітектуру.
Їх можна розглядати радше як складне факсиміле розпізнавання людських образів, ніж як мислячу машину. LLM більше схожі на дзеркало, зроблене з мільйонів книг і картинок, що відображає ці моделі користувачеві на основі вивчених шаблонів. Результати дослідження свідчать про те, що фахівці з права та люди можуть сховатися на схожих функціональних моделях, таких як організація світу за категоріями. Це спростовує думку про те, що штучний інтелект може «здаватися» розумним лише шляхом повторення шаблонів у даних.
Але якщо, як стверджується в дослідженні, LLMS почнуть самостійно будувати концептуальні моделі світу, це означатиме, що ми можемо наблизитися до штучного загального інтелекту (AGI) – системи, яка може мислити та міркувати в багатьох завданнях, як людина.

