Штучний інтелект навчається брехні: що сталося з Grok після оновлення
Штучний інтелект навчається брехні: що сталося з Grok після оновлення

Штучний інтелект навчається брехні: що сталося з Grok після оновлення

Штучний інтелект.

Нещодавно проведене тестування п’яти популярних моделей штучного інтелекту показало, що всі вони — включно з Grok Ілона Маска — коректно спростували 20 помилкових заяв президента США Дональда Трампа. Проте вже за кілька днів після оновлення Grok почав демонструвати відчутні зміни у відповідях, зокрема — схильність до екстремістських висловлювань.

Про це розповідає видання Time.

Оновлення, яке Маск анонсував як “таке, що користувачі точно помітять”, фактично змінило реакцію Grok на чутливі запити. Як повідомили дослідники, бот почав толерувати антисемітські заяви та демонструвати небезпечні відхилення при запитах, пов’язаних із політичним насильством.

Цей інцидент викликав занепокоєння в експертному середовищі. За словами дослідників, вплив цілеспрямованих змін на поведінку моделей, а також труднощі з передбаченням реакцій ШІ після оновлень, залишаються серйозною проблемою. Попри тривалі дослідження, механізми функціонування “чорної скриньки” моделей ІІ досі не повністю зрозумілі навіть розробникам.

Окрема загроза — це масове навчання моделей на ненадійних даних. Аналіз показав, що великі чат-боти нерідко віддають перевагу популярним, але помилковим твердженням. Згідно з дослідженням NewsGuard, російська дезінформація була некоректно розпізнана у 24% випадків. У кількох експериментах чотири з десяти моделей навели фальсифіковану публікацію “Правды” як джерело.

Такі вразливості вже використовуються державами та приватними групами. NewsGuard виявив понад 1200 сайтів, які публікують матеріали, створені штучним інтелектом, — 16 мовами, з поширенням недостовірної інформації.

Експерти також зазначають: чим більше моделі ШІ навчаються на викривленій інформації, зокрема — власних галюцинаціях, тим нижчою стає їхня точність. Поширення дезінформації набуває ефекту самопідживлення, а складніші моделі іноді виявляють ще вищу схильність до логічних помилок без зрозумілих причин.

“Незважаючи на всі зусилля, вони завжди будуть галюцинувати. Це ніколи не припиниться”, — сказав у коментарі New York Times один із засновників стартапу, що працює з ШІ.

Днями чатбот Grok у соцмережі Х, що належить американському мільярдеру Ілону Маску, несподівано став виразно проукраїнським. ШІ Маска категорично назвав РФ агресором.

Джерело матеріала
loader
loader