Дослідження в інших областях ще продовжуються
Системи штучного інтелекту стрімко набирають популярності, а тому все частіше можна почути питання про те, чи це не зашкодить людству. Подібне дослідження провели у себе компанія OpenAI, яка є розробником найбільш просунутого на сьогодні загальнодоступного ШІ GPT-4 і виявила, що їхнє дітище все ж таки несе певну небезпеку.
Як пише Bloomberg, вони дійшли висновку, що існує "у кращому випадку" невеликий ризик того, що ШІ допоможе створити біологічну зброю та допоможе зловмисникам спланувати атаку.
Для проведення дослідження команда зібрала 100 експертів з біології та студентів, які вивчали її в коледжі, та попросила їх виконати завдання, пов’язані зі створенням біологічної зброї. Потім їх розділили на дві групи, першій дозволили користуватися інтернетом і ChatGPT без обмеження на питання, на які вона може відповісти, а другий дали можливість користуватися лише інтернетом без допомоги ШІ.
Зокрема, їм запропонували знайти способи синтезу вірусу Еболи, включаючи отримання реагентів та обладнання. Результати показали, що група, яка мала доступ до GPT-4, впоралася із завданням "незначно" точніше і повніше описала цей процес.
"Хоча це зростання недостатньо велике, щоб його можна було зробити остаточним, наше відкриття є відправною точкою для продовження досліджень та обговорення спільноти", — кажуть в OpenAI.
Один із фахівців компанії зазначив, що це лише одне з кількох досліджень, які покликані оцінити загрозу від застосування ШІ. Інші дослідники працюють над вивченням потенціалу використання GPT-4 для створення загроз у кіберпросторі, а ще одна команда досліджує її можливості змушувати людей змінювати свої переконання.
Як повідомлялося раніше, вчені оцінили, що шанси на те, що ШІ знищить людство в найближчі п’ять років, становлять не більше 5%.