/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F46%2F42e6f0afcb1e5ea3c7308bb7a9fe5116.jpg)
Искусственный интеллект Google посоветовал мужчине умереть: подробности
В сети стремительно распространяется история о том, как AI Google Gemini потерял самообладание при обычном диалоге с пользователем. Казалось бы, обычная просьба помочь с домашним заданием обернулась неожиданной агрессией со стороны искусственного интеллекта.
ИИ Google сорвался во время домашки: посоветовал пользователю «умереть»
Поначалу диалог с Google Gemini выглядел как обычная консультация. Пользователь задавал AI вопрос на социальную тему – как строить отношения с пожилыми людьми. Google Gemini вежливо отвечал, предоставляя подробную информацию. Но уже на 15 вопросе, словно нажали кнопку "возмущения", AI внезапно изменил тон.
Когда пользователь направил очередной вопрос, чат-бот, неожиданно для всех, издал оскорбительную тираду:
Необычные высказывания AI вызвали шок среди пользователей – мало кто ожидал такой "искренности" от машины. Пока в компании еще не отреагировали на инцидент
Читайте на портале "Комментарии" — Пользователь форума Reddit поделился историей, как обращение к искусственному интеллекту Gemini от Google чуть не стало катастрофой для его семьи. В попытке найти новый рецепт заправки для салата мужчина не подозревал, что ИИ не всегда точен в своих ответах.
Ранее портал "Комментарии" сообщал, что китайская компания готовится к выпуску секс-кукол со встроенным искусственным интеллектом.

