/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F53%2Ffbe121496d93a7e36646d4b5db638393.jpg)
Никто не обучал: в поведении ИИ выявили неожиданную черту, присущую людям
Ученые из Китайской академии наук и Южно-Китайского технологического университета в Гуанчжоу доказали, что большие языковые модели (LLM), такие как ChatGPT или Gemini, могут спонтанно распознавать и классифицировать вещи подобно тому, как это делают люди.
Целью ученых было выяснить, могут ли LLM определять вещи на основе функции, эмоций, окружающей среды и т. д. Результаты исследования позволяют предположить, что ИИ способен отражать ключевые аспекты мышления людей без явного обучения этому, пишет газета South China Morning Post (SCMP).
"Понимание того, как люди концептуализируют и классифицируют природные объекты, дает критически важное представление о восприятии и познании", — говорится в научной статье.
В ходе исследования ученые давали ИИ "нестандартные" задания, используя либо текст (для ChatGPT-3.5), либо изображения (для Gemini Pro Vision). Для этого они собрали 4,7 миллиона ответов на 1 854 естественных объекта (собаки, стулья, яблоки и автомобили).
Они обнаружили, что LLM создали шестьдесят шесть параметров, чтобы упорядочить объекты так же, как это делают люди. Эти параметры выходят за рамки базовых категорий (таких как «еда») и охватывают сложные характеристики, такие как текстура, эмоциональная значимость и пригодность для детей.
Важно Угрожал раскрыть измену: ИИ шантажировал инженера, который собирался его удалитьИсследователи также выявили, что "мышление" мультимодальных моделей (сочетающие текст и изображение) еще больше напоминает человеческое мышление, поскольку ИИ обрабатывает визуальные и семантические характеристики одновременно.
Кроме того, команда обнаружила, что данные сканирования мозга (нейровизуализации) показали совпадение между тем, как ИИ и человеческий мозг реагируют на объекты.
Также сообщалось, что ученые выявили сходство чат-ботов на основе искусственного интеллекта с людьми, страдающими афазией.

