G7 призывает принять международные технические стандарты для ИИ
G7 призывает принять международные технические стандарты для ИИ

G7 призывает принять международные технические стандарты для ИИ

G7 призывает принять международные технические стандарты для ИИ

Главы правительств создадут форум, на котором планируют решать вопросы прав собственности и дезинформации, связанные с искусственным интеллектом.

Лидеры стран "Большой семерки" во время саммита в Японии призвали к разработке и принятию международных технических стандартов для искусственного интеллекта, сообщает Reuters. Хотя лидеры G7 во время встречи в Хиросиме признали, что подходы к достижению "общего видения надежного искусственного интеллекта могут отличаться", они заявили, что управление цифровой экономикой должно продолжать осуществляться в соответствии с общими демократическими ценностями.

Соглашение было достигнуто после того, как Европейский Союз, представленный на саммите G7, в этом месяце приблизился к принятию законодательства о регулировании технологий искусственного интеллекта, потенциально первого в мире комплексного закона об искусственном интеллекте.

"Мы хотим, чтобы системы искусственного интеллекта были точными, надежными, безопасными и недискриминационными, независимо от их происхождения", — заявила президент Европейской комиссии Урсула фон дер Ляен накануне в пятницу.

Главы правительств договорились создать министерский форум под названием "Хиросимский процесс искусственного интеллекта" для обсуждения вопросов, связанных с правом интеллектуальной собственности и дезинформацией до конца этого года.

Саммит состоялся после встречи министров цифровых технологий Большой семерки в прошлом месяце, на которой страны – США, Япония, Германия, Британия, Франция, Италия и Канада – заявили, что им следует принять регулирование искусственного интеллекта, "ориентированное на риски".

Напомним, что компания Samsung запретила своим сотрудникам использовать инструменты на основе генеративного искусственного интеллекта после того, как обнаружила, что сотрудники загружают в ChatGPT конфиденциальный код. Компания опасается, что это может привести к утечке информации.

Источник материала
Упоминаемые персоны
loader