Человечеству пора задуматься о темпах развития ИИ-технологий – из-за их ускорения чат-боты уже обгоняют людей по количеству собранных знаний. Поэтому власти стран должны разработать правила, чтобы такие исследования оставались ответственными.
Об этом заявил 75-летний американский ученый Джеффри Хинтон, которого называют "крестным отцом искусственного интеллекта". Ранее он покинул Google, где разрабатывал нейронные сети (основу для работы ИИ-систем), выразив сожаления о своей работе, сообщает BBC.
"Насколько я вижу, пока что они не умнее нас. Но я думаю, что скоро они нас догонят", – сказал Хинтон.
В своем Twitter он объяснил уход из Google желанием свободно обсуждать искусственный интеллект, и не вредить при этом техногиганту. Сама компания очень ответственно подходит к вопросу разработки ИИ, заверил Джеффри Хинтон.
Стоит отметить, что его исследования в области нейросетей и глубокого обучения проложили путь для современных ИИ-разработок, включая чат-бот ChatGPT. Сам ученый предупреждает: чат-боты уже обойти человеческий мозг по количеству хранимой уровень информации.
"Прямо сейчас мы видим, что GPT-4 превосходит человека по объему общих знаний и превосходит солидно. Оно еще не так хорошо рассуждает, но уже способно к простым рассуждениям. С учетом темпов прогресса довольно быстро ситуация может измениться, так нам пора беспокоиться об этом", – предупредил Хинтон.
Особенную обеспокоенность вызывают перспективы использования ИИ для злонамеренных целей. "Это наихудший, кошмарный сценарий. Вы можете представить, что будет, если какой-нибудь злоумышленник, например Путин, позволит роботам создавать свои собственные подцели", – объясняет "крестный отец ИИ".
По его словам, проблема заключается в том, что искусственный интеллект существенно отличается от человеческого. "Разница заключается в том, что цифровые системы – это много копий одних и тех же наборов ценностей, одной и той же модели мира. Все эти копии могут учиться по отдельности, но мгновенно делиться своими знаниями", – добавил Хинтон.
В то же время, он считает, что прекращать исследования ИИ не следует, поскольку в краткосрочной перспективе такая технология принесет гораздо больше пользы, чем рисков. К тому же остановка развития искусственного интеллекта, например, в США лишь предоставит преимущества Китаю.
При этом ответственность за удержание ИИ-разработок под контролем должна лежать не на ученых, а на политиках. Именно властям предстоит разработать регулятивные меры, чтобы подход к исследованиям оставался ответственным.
Ранее OBOZREVATEL уже сообщал, что группа специалистов и топ-менеджеров IT-отрасли, включая главу SpaceX, Tesla и Twitter Илона Маска, подписала открытое письмо, предупредив об угрозах, которые исходят от ИИ. На этом фоне они призвали остановить эксперименты с искусственным интеллектом.
Только проверенная информация у нас в Telegram-канале Obozrevatel и Viber. Не ведитесь на фейки!