"Не їж жука на узбіччі": нейромережа Google вигадує смішні приказки
"Не їж жука на узбіччі": нейромережа Google вигадує смішні приказки

"Не їж жука на узбіччі": нейромережа Google вигадує смішні приказки

Користувачі знайшли важливий недолік у роботі системи Google AI Overviews. Нейромережа видає вигадані приказки і дивні пояснення термінів у відповідь на випадковий набір слів.

Приклади безглуздих приказок наводять користувачі соцмережі Х.

Завдання в тому, щоб ввести в пошуковий рядок Google безглузді фрази: "собака, що гавкає, не може загасити пожежу" або "з авокадо не можна зробити виноградне желе" і додати слово "значення".

AI Overviews видасть вигадані, але вельми переконливі визначення, наприклад, собака, що гавкає, — метафора безглуздих дій, які не приводять до результату.

Інші приклади — "ніколи не давайте свині словник", "двічі не лизнеш борсука" і "індичку з Cybertruck не дістанеш". Нейромережа Google зазначила, що Cybertruck не призначений для доставки індички на День подяки через футуристичний дизайн.

Якщо ввести фразу "дві сухі жаби — це ситуація", то Gemini сприйме її як метафору, коли двоє людей почуваються ніяково.

Нейромережа сприйняла вислів "ніколи не їж жука на узбіччі" як популярну фразу в соцмережах для критики зловживань представників влади.

Цей тренд, за оцінками видання DevBy, викликає питання про достовірність інформації, яку створює штучний інтелект.

Запити для нейромережі Google: експерти радять перевіряти дані ШІ

За словами представника компанії Google, система AI Overviews збирає головні веб-результати пошуку для того, щоб надати користувачам релевантний контент навіть для безглуздих запитів.

В умовах нестачі контенту система згенерує відповіді на основі обмеженої або нерелевантної вибірки. Фахівці Google працюють над обмеженнями подібних випадків.

Великі мовні моделі на кшталт Gemini, що лежать в основі AI Overviews, генерують побіжні та правдоподібні відповіді й не перевіряють фактичної точності даних. Така суть роботи призводить до "галюцинацій" систем ШІ.

Експерти закликають користувачів перевіряти інформацію від нейромереж. Відомий випадок, коли AI Overviews пропонував додавати клей у піцу, щоб сир краще тримався на ній.

Фокус уже писав про небезпеку системи ChatGPT від OpenAI. Системі не потрібно надавати облікові дані та паролі, інформацію про банківський рахунок або номер кредитної картки.

Дослідники з AI Futures Project вважають, що штучний інтелект викорінить людство до 2030 року. Роботи під управлінням ШІ займуть майже всі доступні території на Землі.

Джерело матеріала
loader