1 июля, понедельник
С картинками
Текстовый вид
ru
Украинский
Русский
Опасный рецепт от ИИ: семья едва не погибла от отравления
Опасный рецепт от ИИ: семья едва не погибла от отравления

Опасный рецепт от ИИ: семья едва не погибла от отравления

Пользователь форума Reddit поделился историей, как обращение к искусственному интеллекту Gemini от Google едва не обернулось катастрофой для его семьи. В попытке найти новый рецепт заправки для салата, мужчина не подозревал, что ИИ не всегда точен в своих ответах. 

Искусственный интеллект предложил пользователю рецепт, состоящий из оливкового масла и чеснока, с указанием точных пропорций и времени настаивания. Мужчина без сомнений следовал инструкциям. Однако спустя три дня он заметил, что что-то пошло не так: соус начал странно булькать и выпускать газы.


Беспокойство заставило мужчину поискать информацию. Оказалось, что рецепт, предложенный ИИ, мог привести к формированию ботулотоксина — одного из самых мощных и опасных природных токсинов, вызывающего ботулизм, заболевание, которое парализует нервную систему и может привести к летальному исходу.

“Если бы я не проверил его за 3-4 дня, я бы ничего не узнал и потерял бы всю свою семью. Будьте осторожны и никогда не доверяйте AI, дорогие люди…”, — написал мужчина. 


Ранее портал "Комментарии" сообщал, что китайская компания готовится к выпуску секс-кукол со встроенным искусственным интеллектом. 

Также "Комментарии" писали, что компания "МакДональдс"решила избавиться от искусственного интеллекта в своей работе.




Теги по теме
отравление
Источник материала
Поделиться сюжетом