Украинские дипломаты начали использовать ИИ в своей работе: Кулеба рассказал, как именно
Украинские дипломаты начали использовать ИИ в своей работе: Кулеба рассказал, как именно

Украинские дипломаты начали использовать ИИ в своей работе: Кулеба рассказал, как именно

Украинские дипломаты 2023 начали использовать инструменты искусственного интеллекта в своей работе.

Министр иностранных дел Украины Дмитрий Кулеба рассказал, что Министерство в своей работе начало использовать ИИ в частности для анализа больших массивов данных, разработки коммуникационных стратегий и материалов, аналитики, поисковых запросов и оптимизации рабочего времени.

Об этом он рассказал в видеообращении на хакатоне Equallity Hackaton.

Кулеба отметил, что "модность" темы искусственного интеллекта является нормальным явлением, ведь каждая новая технология вызывает повышенный энтузиазм и одновременно повышенные страхи.

"Очевидно, что эта технология уже изменяет целый ряд сфер жизни, а также создает новые вызовы", — сказал министр.

В частности, он подчеркнул, что ни Россия, ни другие режимы не должны иметь возможность использовать новые технологии для распространения террора, агрессии и нарушения прав человека. Кулеба добавил, что необходимо разработать этические решения по ИИ, основанные на уважении прав человека, равенстве и многообразии.

Опасность искусственного интеллекта

"Крестные родители" искусственного интеллекта опасаются, что он может выйти из-под контроля, поэтому предлагают возложить ответственность за ущерб от него на компании-разработчики. Несколько десятков экспертов разработали предложения с призывами принять ряд стратегий, в частности:

  • правительства должны выделять одну треть своих исследований и разработок искусственного интеллекта, а компании – одну треть своих научно-исследовательских ресурсов на безопасное и нравственное использование систем;
  • предоставление независимым аудиторам доступа в лаборатории ИИ;
  • создание лицензионной системы для создания передовых моделей;
  • компании с искусственным интеллектом должны принять специальные меры безопасности, если в их моделях обнаружены опасные возможности;
  • возложение ответственности на технологические компании за предполагаемый и предохранительный ущерб от их систем ИИ.

  • OpenAI приостанавливает новые регистрации в платной версии ChatGPT: гендиректор назвал причину
  • Украина поддержала декларацию о безопасности применения ИИ
  • ChatGPT: страны Запада решают, кто будет контролировать развитие искусственного интеллекта
Источник материала
loader