Західні експерти налякувані можливістю поєднання ШІ та «роботів-вбивць»
Західні експерти налякувані можливістю поєднання ШІ та «роботів-вбивць»

Західні експерти налякувані можливістю поєднання ШІ та «роботів-вбивць»

Австрія закликала до нових зусиль щодо регулювання використання штучного інтелекту в системах зброї, які можуть створювати так званих «роботів-вбивць », оскільки вона приймала конференцію, спрямовану на пожвавлення дискусій з цього питання, які значною мірою зайшли в глухий кут.
Завдяки швидкому розвитку штучного інтелекту системи зброї, які можуть вбивати без втручання людини, стають все ближчими, створюючи етичні та правові проблеми, які, на думку більшості країн, потрібно вирішити найближчим часом.
«Ми не можемо пропустити цей момент, не вдаючись до дій. Зараз настав час узгодити міжнародні правила та норми для забезпечення людського контролю», — сказав міністр закордонних справ Австрії Александер Шалленберг на зустрічі неурядових і міжнародних організацій, а також представників 143 країн. .
«Принаймні переконаймось, що найглибше і далекосяжне рішення, хто живе, а хто помре, залишається в руках людей, а не машин», — сказав він у вступній промові на конференції під назвою «Людство на роздоріжжі». : автономні системи зброї та виклик регулювання».
Роки дискусій в ООН не дали відчутних результатів, і багато учасників дводенної конференції у Відні заявили, що вікно для дій швидко закривається.
«Надзвичайно важливо діяти, і діяти дуже швидко», – сказала президент Міжнародного комітету Червоного Хреста Мір’яна Сполярич під час панельної дискусії на конференції.
«Те, що ми бачимо сьогодні в різних контекстах насильства, — це моральні провали перед обличчям міжнародної спільноти. І ми не хочемо, щоб такі провали прискорювалися, коли відповідальність за насильство, за контроль над насильством переклали на машини та алгоритми. ", - додала вона.
ШІ вже використовується на полі бою. За словами дипломатів, дрони в Україні створені для того, щоб самостійно знаходити шлях до цілі, коли технологія глушіння сигналу відключає їх від оператора.
Цього місяця Сполучені Штати заявили, що вивчають повідомлення ЗМІ про те, що ізраїльські військові використовували штучний інтелект для ідентифікації об’єктів бомбардування в Газі.
«Ми вже бачили, як штучний інтелект робив помилки відбору як великими, так і дрібними, від помилкового розпізнавання лисини арбітра як футбольного м’яча до смерті пішоходів, спричинених безпілотними автомобілями, які не можуть розпізнати переходи по дорозі», – Яан Таллінн, програміст та технологічний інвестор. , – сказав у програмній промові.
«Ми повинні бути надзвичайно обережними, покладаючись на точність цих систем, чи то у військовому, чи цивільному секторах».
Источник материала
Поделиться сюжетом