Спілкування з чат-ботами спровокувало кілька самовбивств – чи готові ми вимикати штучний інтелект раніше, ніж він «вимкне» людину
Спілкування з чат-ботами спровокувало кілька самовбивств – чи готові ми вимикати штучний інтелект раніше, ніж він «вимкне» людину

Спілкування з чат-ботами спровокувало кілька самовбивств – чи готові ми вимикати штучний інтелект раніше, ніж він «вимкне» людину

Спілкування з чат-ботами спровокувало кілька самовбивств – чи готові ми вимикати штучний інтелект раніше, ніж він «вимкне» людину

Данаеріс Таргарієн не знайшла потрібних слів для підлітка.

Низка самовбивств, спровокованих спілкуванням із чат-ботами, свідчить про небезпеку швидкого розвитку та широкої доступності систем штучного інтелекту. Про це йдеться у статті, опублікованій науково-популярним ресурсом ScienceAlert.

Автори згадують, що минулого тижня з’явилася трагічна новина про те, що американський підліток Сьюелл Зельтцер III покінчив життя самогубством після того, як глибоко емоційно прив’язався до чат-бота зі штучним інтелектом (ШІ) на веб-сайті Character.AI. У позові, поданому проти Character.AI матір’ю хлопчика, стенограми чату показують інтимні та часто дуже сексуальні розмови між Сьюеллом і чат-ботом Дені, створеним за зразком персонажа «Гри престолів» Данаеріс Таргарієн.

ScienceAlert підкреслює, що це не перший відомий випадок самогубства вразливої людини після спілкування з персонажем чат-бота. Торік бельгієць позбавив себе життя за схожих обставин, пов’язаних з головним конкурентом Character.AI, Chai AI.

Автори статті наголошують, що випадки самогубств, про які повідомляють ЗМІ, можуть бути лише верхівкою айсберга: «Ми не маємо можливості дізнатися, скільки вразливих людей мають проблеми у зв’язку із залежністю, токсичними чи навіть небезпечними стосунками з чат-ботами».

Звідси висновок: «Нам терміново потрібне регулювання, щоб захистити людей від потенційно небезпечних, безвідповідально розроблених систем ШІ».

Уряд Австралії вже розробляє так звані «обов’язкові огорожі» для систем штучного інтелекту високого ризику, і ці обмеження можуть бути запроваджені вже наступного року. У революційному Законі Європейського Союзу про штучний інтелект системи високого ризику визначаються за допомогою списку , який регулятори мають право регулярно оновлювати.

При цьому у Європі супутні системи штучного інтелекту, такі як Character.AI і Chai, не вважаються, такими, що мають високий ризик. По суті, їх постачальники повинні лише повідомляти користувачам, що вони взаємодіють із системою ШІ.

Втім, дослідники вважають що ризик тут не варто недооцінювати. Багато користувачів цих програм є дітьми та підлітками. Деякі з систем доступні навіть людям, які є самотніми або мають психічні захворювання.

Чат-боти здатні генерувати непередбачуваний, невідповідний і маніпулятивний контент. Вони занадто легко імітують токсичні стосунки. Тож просто попередити, що весь той провокативний зміст продукує машина – цього вже явно замало.

Дослідники наполягають, що іноді потрібне навіть щось радикальніше, ніж прості обмеження для ШІ: «Регулятори повинні мати повноваження видаляти системи штучного інтелекту з ринку, якщо вони завдають шкоди або становлять неприйнятний ризик».

Раніше професор права та лідерства в юридичній школі Гарвардського університету Лоуренс Лессіг висловив думку, що не всі моделі штучного інтелекту  повинні бути у вільному доступі. Чим вправнішим стає ШІ, тим ближче людство підходить до катастрофи. 

Джерело матеріала
loader
loader