У документі під назвою “Frontier AI Framework” Meta визначає два типи AI-систем, які вважає надто ризикованими для випуску: “високоризикові” та “критично ризикові” системи. “Критично ризикові” системи можуть призвести до “катастрофічних наслідків, які неможливо пом’якшити в запропонованому контексті використання”. Прикладом такого ризику є AI, здатний автоматично зламувати навіть найзахищеніші комп’ютерні мережі без участі людини.
Meta планує негайно припиняти роботу над моделями, які становлять критичний ризик, і вживати заходів для запобігання їх випуску. Однак компанія визнає, що повністю гарантувати безпеку може бути складно, зазначаючи, що доступ до таких моделей буде суворо обмежений невеликою кількістю експертів, а також будуть впроваджені заходи безпеки для запобігання зламу або витоку інформації настільки, наскільки це технічно можливо та комерційно доцільно.
Цей крок підкреслює зростаюче усвідомлення потенційних небезпек, пов’язаних із розвитком передових AI-технологій, та необхідність впровадження строгих заходів контролю для забезпечення їх безпечного використання.