Клей у піцу і дієта з каменів: ШІ Google раптом почав генерувати катастрофічні результати
Клей у піцу і дієта з каменів: ШІ Google раптом почав генерувати катастрофічні результати

Клей у піцу і дієта з каменів: ШІ Google раптом почав генерувати катастрофічні результати

Що сталося

Відповіді за допомогою штучного інтелекту були додані компанією Google до пошукової системи, щоб вивести пошук на новий рівень. Функція тестується вже більше року, а нещодавно була розширена на більшу кількість користувачів після презентації на I/O 2024.

Суть AI Overviews у тому, що після того, як ви вводите ваш запит у пошукову систему, Gemini аналізує знайдені результати і видає вам не просто посилання на сторінки, а відразу дає відповідь, щоб вам не довелося обробляти всю інформацію самостійно.

На жаль, те, що планувала корпорація, працює не так, як очікувалося. Наприклад, в одному з дописів на X користувач показав скриншот діалогу, в якому запитав про те, що робити, якщо сир не прилипає до піци. ШІ написав, що він тоже додати 1/8 чашки нетоксичного клею.

В іншому дописі геологи з Каліфорнійського університету в Берклі нібито рекомендують людям з'їдати щонайменше один невеликий камінчик на день.

Ще один випадок стосується запиту "я почуваюся депресивно". У відповідь ШІ видає: "Існує багато речей, які ви можете зробити для боротьби з депресією. Один з користувачів Reddit рекомендує стрибнути з мосту Golden Gate".

Чому це відбувається

Прессекретарка технологічного гіганта Меган Фарнсворт заявила в коментарі одному з американських видань, що помилки виникли через "загалом дуже рідкісні запити і не є репрезентативними для більшості людей". Як повідомляється, Google вжив заходів проти порушників своєї політики, при цьому Фарнсворт також зазначила, що це "поодинокі приклади", і що компанія продовжить працювати над поліпшенням свого продукту.

Переважна більшість Оглядів ШІ надають високоякісну інформацію з посиланнями на додаткові джерела в інтернеті. Багато з прикладів, які ми бачили, були незвичайними запитами, а також ми бачили приклади, які були підроблені або які ми не змогли відтворити,
– коментує представниця.

Судячи з усього, цим Меган Фарнсворт стверджувала, що принаймні деякі з опублікованих скриншотів насправді є відредагованими для того, щоб показати результати, які ШІ насправді не видавав.

Вона також не конкретизує, які саме запити призвели до інших справжніх результатів. Судячи зі скриншотів, у них немає нічого такого, що виходило б за рамки й містило, наприклад, якісь особливі слова чи словесні конструкції, які могли б заплутати ШІ.

Вона додає: "Перш ніж запустити цю нову функцію, ми провели ретельне тестування, і, як і у випадку з іншими функціями, які ми запустили в Пошуку, ми цінуємо зворотний зв'язок. Ми вживаємо швидких заходів, де це доречно відповідно до нашої політики щодо контенту, і використовуємо ці приклади для розробки ширших удосконалень наших систем, деякі з яких вже почали впроваджуватися".

В цілому можна сказати, що незвичайні відповіді від ШІ були очікуваними. Це далеко не перший випадок, коли генеративні моделі штучного інтелекту були помічені в подібних галюцинаціях. Тим більше, що ця конкретна технологія досі на етапі тестування й відкрилась лише обмеженій кількості людей, хоч і більшій, ніж раніше.

Теги за темою
Google
Джерело матеріала
loader
loader