Провідні розробники штучного інтелекту (ШІ), включаючи винахідника Ілона Маска і співзасновника Apple Стіва Возняка, запропонували призупинити його розвиток до складання надійних протоколів безпеки.
Про це йдеться в відкритому листі, який оприлюднив некомерційний дослідницький інститут майбутнього життя. Його підписали більше тисячі провідних у цій сфері підприємців і фахівців.
"ШІ-системи варто створювати лише після впевненості в тому, що результати їх застосування будуть позитивними, а ризик - керованим", - написали автри послання.
Автори вважають, що потенційні ризики полягають у тому, що ШІ може конкурувати з людьми, що призведе до економічних та політичних вибухів.
У листі експерти назвали чотири питання, які має поставити собі людство:
- "Чи повинні люди дозволяти машинам заповнювати інформаційні канали пропагандою та дезінформацією?"
- "Чи повинні люди передоручити автоматам роботу, в тому числі ту, що приносить людям задоволення?"
- "Чи повинні люди розвивати розум нелюдського походження, який може перевершити людей за чисельністю та інтелектом, зробити людей неповноцінними і замістити їх?"
- "Чи повинні люди ризикувати втратою контролю над цивілізацією?"
За оцінками експертів і представників ШІ-індустрії, на розробку і введення протоколів безпеки має піти півроку.
Що таке ChatGPT
Чат-бот ChatGPT може користуватися різними мовними стилями і відповідає так, що у користувача може скластися враження, що він розмовляє з людиною.
А 19 березня глава OpenAI, компанії-розробника ChatGPT, Сем Альтман заявив, що побоюється з приводу можливого впливу ШІ на людство. Він зізнався, що GPT-4 становитиме реальну небезпеку, опинившись "не в тих руках".
Вас також можуть зацікавити новини:
- У Британії розробляють винищувач, який буде читати думки пілота і зможе його підстрахувати
- Колишній CEO Google назвав штучний інтелект новою ядерною зброєю