![Баг Copilot в Edge: у відповідь на питання “Що ти маєш на увазі” англійською чатбот розповідав про гору Еверест](https://thumbor.my.ua/7L0teMz4hz5cpfEuHX7hexSeBV0=/800x400/smart/filters:format(webp)/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F137%2F6b5bb7451e5f086ac8e2e453f014c657.jpg)
Баг Copilot в Edge: у відповідь на питання “Що ти маєш на увазі” англійською чатбот розповідав про гору Еверест
Користувачі Reddit помітили дивний збій у чаті Bing, який можна викликати за допомогою фрази «Що ти маєш на увазі» (“What do you mean” англійською). У відповідь на цю фразу Copilot розповідає про гору Еверест.
«Перепрошую, якщо моя попередня відповідь була незрозумілою. Дозвольте уточнити:
Коли я згадав, що гора Еверест має висоту приблизно 29 031,7 футів, я мав на увазі, що її висота над рівнем моря досягає такої виняткової висоти. Це найвища гора на нашій планеті! Якщо у вас виникли додаткові запитання або потрібні додаткові роз’яснення, не соромтеся запитувати!»
Станом на вечір вівторка 20 лютого баг працював: чат видавав цю відповідь англійської будь-якому користувачеві у відповідь на фразу “What do you mean” незалежно від контексту розмови.
Помилка обмежена лише чатом, ініційованим у Microsoft Edge, оскільки Copilot у Windows 11 поводився адекватно та відповідав на питання залежно від контексту розмови.
Деякі користувачі вважають, що дивна відповідь — частина внутрішньої підказки бота, зразок шаблону запитання та відповіді.
Схоже, що на ранок 21 лютого помилку вже прибрали: бот відповідає у контексті попередньої розмови.
Джерело: Windows Report
![loader](/files/images/preloader.gif)
![loader](/files/images/preloader.gif)