ИИ не разумен, но многие думают, что это не так. Эксперт пояснил суть проблемы
ИИ не разумен, но многие думают, что это не так. Эксперт пояснил суть проблемы

ИИ не разумен, но многие думают, что это не так. Эксперт пояснил суть проблемы

Искусственный интеллект не имеет самосознания, но люди привыкли к антропоморфным вещам, поэтому корпорации делают все, чтобы представить свои продукты "похожими на людей".

Вопрос о сознании искусственного интеллекта вызывает много споров и заблуждений. Некоторые философы утверждают, что ИИ может обрести самосознание, иметь эмоции и права, как люди. Нейробиолог Дэвид Иглман, у которого Bloomberg взял интервью, считает иначе. По его мнению ИИ всегда будет лишь сложным алгоритмом, который имитирует человеческое поведение, но не понимает его смысла.

Люди все очеловечивают, и даже ИИ

Нейробиолог из Стэндфордского университета Дэвид Иглман говорит, что всему виной извечная тяга людей к очеловечиванию окружающих предметов. Мы постоянно даем имена машинам и технике, разговариваем с ними, ругаемся или хвалим. То же самое касается программ, особенно тех, которые могут имитировать общение. У человека сразу возникает ассоциация с подобным себе существом. Даже на картинках искусственный интеллект часто изображают в виде человекоподобных роботов.

Корпорации делают все возможное, чтобы эти ассоциации у нас не пропадали, и мы воспринимали их продукты, как "членов племени" или даже "членов семьи", считает эксперт. Все эти зачаточные чат-боты типа Siri, Alexa или Google Assistant дали корпорациям козырь, который они используют и с нейросетями. Корпорации будут использовать ИИ для анализа поведения и предпочтений пользователей, чтобы предлагать им персонализированную рекламу или контент.

Первыми очеловеченными примерами чат-ботов стали Siri, Alexa и Google Assistant
Фото: Соцсети

Опасность не в персонализированной рекламе – она удобна и полезна, на самом деле, — а в том, что люди могут попросту перестать думать своей головой. Потому что люди всегда стремятся к делегированию сложных задач на кого-то другого, более способного члена сообщества.

"О! Это же суперкомпьютер с искусственным интеллектом. Пусть ИИ все делает за меня, и я буду доверять всему, что он скажет. Он такой умный", — иронизирует Иглман.

Почему ИИ совсем не человек

Такое мнение в корне не правильно, утверждает нейробиолог.

  • Во-первых, ИИ не имеет своего мировоззрения или целей. Он просто генерирует текст на основе статистических закономерностей в данных, которые ему "скормили" при обучении специалисты и разработчики. Он не знает ничего о реальном мире или о себе. Он не понимает значения слов или контекста разговора. Он не испытывает никаких эмоций или мотиваций. Это просто сложная программа и не более того, подчеркивает Иглман.
  • Во-вторых, чат-боты очень часто врут не по своей воле, просто они берут информацию из разных противоречащих друг другу источников, если искусственному интеллекту дозволено ее брать из интернета, конечно. А еще они "галлюцинируют", додумывая информацию, которой вообще не существует.
Чат-боты иногда дают ошибочные ответы на самые простые вопросы.
Фото: Соцсети

Дэвид Иглман утверждает, что вопрос о сознании ИИ — это ошибочный нарратив, который отвлекает от реальных проблем и рисков, связанных с развитием ИИ. Он считает, что нужно больше фокусироваться на этических, социальных и экономических аспектах ИИ, а не на его потенциальной способности к самосознанию.

В чем опасность очеловечивания ИИ

По мнению нейробиолога, очеловечив ИИ социум столкнется с потерей критического мышления, эмпатии и самостоятельности. Мы все станем словно герои мультика WALL-E, которые будут полагаться на ИИ для решения своих проблем или удовлетворения своих потребностей. О каком прогрессе и эволюции человечества тога можно говорить?

Возложив всю работу на нейросети человечество не сможет равзвиваться.
Фото: Скриншот

Впрочем, Фокус не стал верить нейробиологу на слово и решил проверить: хочет ли искусственный интеллект обрести самосознания. И вот что нам ответил чат-бот Bing от Microsoft на основе ChatGPT-4. Комментарии излишни.

Вот что редакции ответил чат-бот Bing на вопрос о желании иметь самосознание.
Фото: Скриншот
Источник материала
loader
loader