Принципы Google больше не содержат пунктов, исключающих применение ИИ для создания оружия, слежки и других технологий для причинения вреда людям.
Во вторник, 4 февраля, компания Google обновила свои этические принципы в отношении искусственного интеллекта (ИИ), отказавшись от обязательства не применять данную технологию в качестве оружия или средства наблюдения. Об этом пишет The Washington Post.
- технологии, которые наносят или могут нанести общий вред;
- оружие или другие технологии, основной целью или применением которых является причинение или непосредственное содействие причинению вреда людям;
- технологии, собирающие или использующие информацию для наблюдения, нарушающие общепринятые международные нормы;
- технологии, цель которых противоречит общепринятым принципам международного права и прав человека.
По состоянию на 5 февраля на сайте отсутствует этот раздел. Представитель Google отказался отвечать на вопросы журналистов о политике компании в отношении оружия и слежки, но сослался на отчет, опубликованный во вторник главой подразделения ИИ компании Демисом Хассабисом и ее старшим вице-президентом по технологиям и обществу Джеймсом Маньикой.
В отчете говорится, что Google обновляет свои принципы касательно ИИ, поскольку в мире идет глобальная конкуренция за лидерство в области ИИ в условиях все более сложного геополитического ландшафта, породившая необходимость в компаниях, который базируются в демократических странах и обслуживают клиентов из сферы правительства и национальной безопасности.
"Мы считаем, что демократии должны лидировать в разработке ИИ, руководствуясь такими основными ценностями, как свобода, равенство и уважение прав человека. И мы считаем, что компании, правительства и организации, разделяющие эти ценности, должны работать вместе, чтобы создать ИИ, который защищает людей, способствует глобальному росту и поддерживает национальную безопасность", — заявили Хассабис и Маньика.
Важно В США ученые скопировали китайский чат-бот DeepSeek, потратив менее 30 долларовВ обновленной версии принципов Google по ИИ говорится, что компания будет использовать человеческий надзор и принимать обратную связь, чтобы гарантировать, что ее технология используется в соответствии с "общепринятыми принципами международного права и прав человека". Кроме того, компания обещает тестировать свою технологию, чтобы "смягчить непреднамеренные или вредные последствия".