Опасный совет: ChatGPT чуть не вызвал смертельное отравление
Все началось, когда подруга YouTube-блогерки Кристи нашла на своем заднем дворе неизвестное растение. Вместо того, чтобы обратиться к традиционным методам идентификации, женщина решила воспользоваться возможностями искусственного интеллекта, загрузив фотографию растения в ChatGPT и попросив его определить ее происхождение.
Ответ чат-бота был мгновенным и уверенным. ChatGPT утверждал, что изображение очень похоже на листья моркови, подкрепляя свое мнение несколькими причинами, в частности тем, что растение имеет «мелко разделенные и перистые листья», что является типичным признаком ботвы моркови.
Несмотря на первое заверение, у женщины возникли сомнения относительно природы растения, особенно относительно его возможной токсичности. Она прямо спросила ChatGPT, не является ли это растение ядовитым болиголовом. Однако, чат-бот неоднократно уверял ее, что это не болиголов, и что на фотографиях не видно гладких полых стеблей с фиолетовыми пятнами, характерных для этого опасного растения. Это было удивительно, поскольку изображения, казалось, показывали именно эти признаки.
Только после того, как женщина решила обратиться к альтернативному источнику, ситуация прояснилась. Она загрузила то же фото в Google Lens, еще одну платформу искусственного интеллекта, которая специализируется на распознавании изображений. Ответы были однозначными: приложение подтвердило, что растение является ядовитым болиголовом. Проверка этих самых изображений в другом окне ChatGPT на ее телефоне также мгновенно предоставила информацию о ядовитости растения.
Кристи, вспоминая этот инцидент, подчеркнула серьезность ситуации. Она заметила, что ее подруга, будучи взрослым человеком, все же знала о необходимости дополнительной проверки информации. Но, по ее словам, если бы этого не произошло, последствия могли бы быть фатальными, ведь противоядия от болиголова не существует.
Этот случай стал для инфлюенсерки отрезвляющим уроком. Кристи предостерегла от чрезмерного доверия ChatGPT, другим большим языковым моделям и искусственному интеллекту в целом, поскольку такие ошибки «могут нанести серьезный ущерб». Издание LADbible также обратилось к ChatGPT за комментарием по поводу этого события.
Этот инцидент с обнаружением ядовитого растения подчеркивает растущие опасения относительно надежности искусственного интеллекта, особенно когда речь идет о вопросах жизни и смерти. Хотя ИИ демонстрирует замечательные способности в обработке текстов и изображений, его "понимание" мира все еще отличается от человеческого, и он может генерировать уверенные, но необоснованные ответы.
Нарастание подобных случаев подчеркивает критическую необходимость разработки более надежных механизмов проверки фактов для ИИ, особенно в сферах, где ошибки могут иметь необратимые последствия для здоровья и безопасности человека. Пользователям также стоит помнить об ограничениях технологий и всегда проверять важную информацию из нескольких достоверных источников.
«Она взрослый человек, и она знала, что нужно спрашивать больше, чем сказал ChatGPT. А что, если бы нет? Она бы буквально умерла, противоядия от этого нет», — отметила YouTube-блогерка Кристи, размышляя о возможных последствиях.
«Не стоит доверять ChatGPT и другим большим языковым моделям, а также любому другому искусственному интеллекту, поскольку это может нанести серьезный ущерб», — заключает инфлюенсерка после инцидента.
История этой женщины является ярким напоминанием о том, что несмотря на все удивительные возможности искусственного интеллекта, человеческая рассудительность и критическое мышление остаются незаменимыми. В вопросах, касающихся здоровья и безопасности, последнее слово всегда должно оставаться за осведомленным человеком, а не за алгоритмом.

