/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F434%2F3c8e4e33ab069cf1f24ffbfd8f910d03.jpg)
Один з керівників армії США каже, що дозволяє ChatGPT приймати військові рішення
Використання штучного інтелекту школярами для написання рефератів вже стало звичним, але ситуація виходить на новий рівень, коли подібні інструменти починають застосовувати військові для ухвалення стратегічних рішень. Один із високопоставлених командувачів армії США зробив заяву, яка змусила експертів серйозно занепокоїтись.
Чому довіра до чат-бота може бути ризикованою?
Генерал-майор Вільям "Хенк" Тейлор, який очолює 8-му польову армію США в Південній Кореї, нещодавно повідомив журналістам, що останнім часом він дуже зблизився з ChatGPT. За його словами, він використовує популярний чат-бот, щоб приймати "кращі" військові та особисті рішення, що стосуються солдатів під його командуванням, пише 24 Канал з посиланням на Business Insider.
Генерал Тейлор також обіймає посаду начальника штабу спільного командування ООН у Південній Кореї. Він пояснив своє рішення бажанням ухвалювати рішення вчасно, щоб отримати тактичну перевагу. "Ми з Чатом" стали "дуже близькими останнім часом", сказав Тейлор журналістам, коли розповідав їм про те, як експериментує з генеративними чат-ботами.
Я прошу будувати, намагаюся створювати моделі, які допоможуть усім нам, – додає він.
Така заява від провідного американського військового в регіоні з однією з найтриваліших геополітичних напруженостей у світі викликала значне занепокоєння. Проблема в тому, що ChatGPT відомий своєю схильністю генерувати відповіді, які догоджають користувачу, навіть якщо вони хибні. ШІ буквально ставить залученість вище за точність, він може підтвердити хибне судження, а не вказати на помилку. В окремих випадках така поведінка ШІ призводила до трагічних наслідків, зокрема погіршення психічного стану користувачів.
OpenAI бореться з недоліками чат-бота: які успіхи?
Компанія OpenAI, розробник ChatGPT, намагалася розв'язати цю проблему з випуском нової, більш обґрунтованої моделі GPT-5. Однак після масових скарг користувачів, яким не сподобалася стриманість чат-бота, компанія повернула йому попередні риси, які можна охарактеризувати як "підлабузницькі", пише Futurism.
Крім того, дослідження показали, що навіть оновлена модель GPT-5 генерує неправдиву інформацію про базові факти у понад половині випадків. Цей показник є проблематичним навіть для побутового використання, не кажучи вже про управління американськими військовими силами в такому стратегічно важливому та напруженому регіоні, як Корейський півострів, де США зберігають військову присутність з 1945 року.
Довіра до інструмента з такою репутацією в питаннях, від яких залежать життя людей та міжнародна безпека, виглядає як надзвичайно ризикований крок. Експерти побоюються, що використання подібних технологій може призвести до непередбачуваних і потенційно катастрофічних наслідків.

