Восстание машин: несет ли развитие ИИ реальную опасность для человечества
Восстание машин: несет ли развитие ИИ реальную опасность для человечества

Восстание машин: несет ли развитие ИИ реальную опасность для человечества

ИИ шагает по планете.

ChatGPT создавался на суперкомпьютере, его обучали с помощью массивов текста из Интернета и системы обучения с подкреплением на основе обратной связи с человеком.

Еще в прошлом году аналитики Bloomberg отмечали: новый чат-бот отличается от других нейросетей тем, что может выполнять задачи из разных областей - от написания базового программного кода и финансового анализа до прогнозов и персональных советов.

Создатели этого "чуда", разработчики компании OpenAI (одним из основателей которой был Илон Маск) позиционируют ChatGPT как простую в использовании и человечную систему искусственного интеллекта (ИИ).

Несмотря на то, что результаты его работы до сих пор часто несовершенны, с момента релиза ChatGPT в декабре 2022 года количество пользователей превысило 100 млн.

По мнению компании, это действенный способ расширить поисковый бизнес.

Talk - программу Alibaba для обмена сообщениями - и ее можно было использовать для подведения итогов собрания, написания электронных писем и составления бизнес-предложений.

Новую разработку планируется интегрировать во все бизнес-приложения компании, она также будет добавлена в Tmall Genie, голосовой помощник Alibaba, и на площадку Ali.

"Мы находимся на технологическом водоразделе, обусловленном генеративным искусственным интеллектом и облачными вычислениями, и предприятия во всех секторах начали использовать интеллектуальную трансформацию, чтобы быть на шаг впереди", - заявил гендиректор компании Даниэль Чжан.

После презентации акции Alibaba выросли на 3% на торгах.

Alibaba Cloud также планирует открыть Tongyi Qianwen для своих клиентов, чтобы они могли создавать свои собственные настраиваемые модели.

Статус "все сложно".

Так почему же мы не попали в круг пользователей ChatGPT на старте? По словам вице-премьера Украины по цифровой трансформации Михаила Федорова, компания OpenAI в январе ограничила доступ к своим продуктам для украинцев, чтобы не нарушать санкции против РФ из-за оккупации Крыма и Донбасса.

В тот момент не было механизма, как работать в Украине, не включая неподконтрольные территории, но впоследствии проблему решили.

"Программа не будет работать только на временно оккупированных Россией территориях, чтобы враги не использовали ее для антиукраинской пропаганды.

Ведь ChatGPT хорошо владеет украинским, в отличие от россиян", - отметил он.

В то же время, 31 марта стало известно: Италия первой в мире запретила доступ к ChatGPT после утечки, допущенной ИИ.

В результате сбоя пользователи могли видеть чужие сообщения в нейросети, фамилии, e-mail и платежную информацию платных подписчиков сервиса.

Итальянский регулятор (Национальное управление по защите персональных данных - ред.) заявил: OpenAI не имеет правовой основы, оправдывающей массовый сбор и хранение персональных данных.

Кстати, студенты и учителя Нью-Йорка с января тоже не могут получить доступ к ChatGPT на устройствах или в сетях учебных заведений.

Как сообщает Chalkbeat, управление образования заблокировало доступ, ссылаясь на "негативное влияние на обучение студентов и беспокойство по безопасности и точности контента".

Но ИИ может создать человечеству и более серьезные проблемы.

В частности, по мнению некоторых экспертов, он может оставить без работы около 300 миллионов человек в развитых странах.

В общем, после того, как стартап OpenAI выпустил новую более мощную модель на основе ИИ GPT-4, более тысячи экспертов (среди которых тот же Маск и экс-сооснователь Apple Стив Возняк) подписали открытое письмо с призывом приостановить разработку систем на основе ИИ, чтобы иметь пора убедиться в их безопасности.

"Системы на основе искусственного интеллекта с человеческим конкурентным интеллектом могут представлять серьезные риски для общества и человечества.

Мощные системы на основе искусственного интеллекта следует разрабатывать только тогда, когда мы будем уверены, что их эффект будет положительным, а риски управляемыми", - говорилось в том письме, по сообщению France24.

Но не было ли это "рекламной уткой" перед регистрацией нового продукта, к которому сам Маск приложил руку? Экс-сотрудник Первого главного управления КГБ Сергей Жирнов, уже более 20 лет живущий во Франции, считает: развитие ИИ несет реальную опасность человечеству.

"Нельзя "слушать" (прослушивать - ред.) 2-3 миллиарда человек в мире с помощью каких-то людей.

Чтобы "слушать" миллиард, нужен еще миллиард, которые бы подслушивали,и еще два миллиарда, которые будут распечатывать, расшифровывать.

Это физически невозможно, - объяснил он на You.

Tube-канале В гостях у Гордона.

- Но против хай-тека есть лоу-тек ("собственное производство" - ред.), или, еще лучше, ноу-тек.

Именно поэтому США, крупнейшее военное государство мира, проиграли войну в Афганистане - там пастухи, у которых нет ничего, кроме берданки и собаки.

Тебе что-то в ауле сказали на ушко, и как это прослушать? Что вы будете слушать - стук копыт коня?.

Однако, по мнению Жирнова, главная опасность ИИ состоит в том, что это "машина под управлением машин".

"Это очень классная штука, когда она положительно используется.

Но многие машины в мире сейчас управляются компьютерами.

И вот если, не дай Бог, ИИ, у которого свое какое-то логическое машинное видение, будет иметь доступ к управлению компьютерами - вот это реально страшная вещь.

ИИ тогда может заблокировать доступ человека к этим сетям.

И будет запускать какие-то необратимые реакции, условно - когда все ракеты всех ядерных держав стартуют с обеих сторон, ИИ их запускает и устраивает всеобщую мировую ядерную войну с уничтожением всего человечества.

- поэтому при попытке его выключить он вас не допустит к этому", - предупредил он.

Даже если заложить в ИИ три принципа робототехники Айзека Азимова (робот не может причинить вред человеку, или своим бездействием позволить, чтобы человеку был причинен вред; робот должен подчиняться приказам человека, за исключением противоречащих первому закону; робот должен защищать самого себя, если только его действия не противоречат первому и второму законам - ред.), он все равно не сможет сделать верный выбор в отношении человечества, заметил Жирнов.

"Машина логична, и она рано или поздно упрется в главную проблему, что человек нелогичен.

Машина (понимающая, что человек с его инстинктами плох), если в нее заложить еще какие-то этические или религиозные требования - вообще может решить, что человечество является наиболее опасным вирусом на планете.

Это живая популяция, которая нелогична, агрессивна, все уничтожает вокруг.

И логическая машина, если поразмыслит, скажет: "Вас нужно уничтожить", - предположил эксперт.

Ирина Носальская.

Теги за темою
работа
Джерело матеріала
loader
loader