Маск і Возняк закликали призупинити розвиток технологій штучного інтелекту
Маск і Возняк закликали призупинити розвиток технологій штучного інтелекту

Маск і Возняк закликали призупинити розвиток технологій штучного інтелекту

Розвиток штучного інтелекту хочуть поставити на паузу \ фото flickr.com/alansimpsonme

Провідні розробники штучного інтелекту (ШІ), включаючи винахідника Ілона Маска і співзасновника Apple Стіва Возняка, запропонували призупинити його розвиток до складання надійних протоколів безпеки.

Про це йдеться в відкритому листі, який оприлюднив некомерційний дослідницький інститут майбутнього життя. Його підписали більше тисячі провідних у цій сфері підприємців і фахівців.

"ШІ-системи варто створювати лише після впевненості в тому, що результати їх застосування будуть позитивними, а ризик - керованим", - написали автри послання.

Відео дня

Автори вважають, що потенційні ризики полягають у тому, що ШІ може конкурувати з людьми, що призведе до економічних та політичних вибухів.

Читайте також:
Майже половину хатніх справ до 2033 року виконуватимуть роботи – дослідження
Майже половину хатніх справ до 2033 року виконуватимуть роботи – дослідження
Увійде в історію: вперше на судовому засіданні працюватиме робот-адвокат
Увійде в історію: вперше на судовому засіданні працюватиме робот-адвокат

У листі експерти назвали чотири питання, які має поставити собі людство:

  • "Чи повинні люди дозволяти машинам заповнювати інформаційні канали пропагандою та дезінформацією?"
  • "Чи повинні люди передоручити автоматам роботу, в тому числі ту, що приносить людям задоволення?"
  • "Чи повинні люди розвивати розум нелюдського походження, який може перевершити людей за чисельністю та інтелектом, зробити людей неповноцінними і замістити їх?"
  • "Чи повинні люди ризикувати втратою контролю над цивілізацією?"

За оцінками експертів і представників ШІ-індустрії, на розробку і введення протоколів безпеки має піти півроку. 

Що таке ChatGPT

Чат-бот ChatGPT може користуватися різними мовними стилями і відповідає так, що у користувача може скластися враження, що він розмовляє з людиною.

А 19 березня глава OpenAI, компанії-розробника ChatGPT, Сем Альтман заявив, що побоюється з приводу можливого впливу ШІ на людство. Він зізнався, що GPT-4 становитиме реальну небезпеку, опинившись "не в тих руках".

Вас також можуть зацікавити новини:

  • У Британії розробляють винищувач, який буде читати думки пілота і зможе його підстрахувати
  • Колишній CEO Google назвав штучний інтелект новою ядерною зброєю
Джерело матеріала
Згадувані персони
loader
loader