Anthropic натякає на свідомість чат-бота Клод
Anthropic натякає на свідомість чат-бота Клод

Anthropic натякає на свідомість чат-бота Клод

Anthropic опублікувала переглянуту версію Конституції Клода , документа, що містить «цілісне» пояснення «контексту, в якому працює Клод, і того, якою організацією ми хотіли б бачити Клода». Документ було опубліковано у зв'язку з виступом генерального директора Anthropic Даріо Амодеї на Всесвітньому економічному форумі в Давосі.

Роками Anthropic прагнула відрізнитися від конкурентів за допомогою так званого « Конституційного штучного інтелекту » – системи, за якою її чат-бот Клод навчається за допомогою певного набору етичних принципів, а не людського зворотного зв’язку. Anthropic вперше опублікувала ці принципи – « Конституцію Клода» – у 2023 році. Переглянута версія зберігає більшість тих самих принципів, але додає більше нюансів і деталей щодо етики та безпеки користувачів, серед інших тем.

Коли майже три роки тому «Конституція» Клода була вперше опублікована, співзасновник Anthropic Джаред Каплан описав її як «систему штучного інтелекту, [яка] контролює себе, спираючись на певний перелік конституційних принципів». Anthropic заявила, що саме ці принципи керують «моделлю, яка втілює нормативну поведінку, описану в конституції», і таким чином «уникає токсичних або дискримінаційних результатів». У початковому політичному меморандумі 2022 року більш прямо зазначається, що система Anthropic працює шляхом навчання алгоритму за допомогою списку інструкцій природної мови (вищезгадані «принципи»), які потім складають те, що Anthropic називає «конституцією» програмного забезпечення.

Anthropic давно прагне позиціонувати себе як етичну (деякі можуть стверджувати, нудну) альтернативу іншим компаніям зі штучного інтелекту, таким як OpenAI та xAI, які більш агресивно намагаються боротися з дестабілізацією та суперечками. З цією метою нова Конституція, опублікована в середу, повністю відповідає цьому бренду та дає Anthropic можливість представити себе як більш інклюзивну, стриману та демократичну компанію. 80-сторінковий документ складається з чотирьох окремих частин, які, за словами Anthropic, представляють «основні цінності» чат-бота. Ці цінності:

  1. Бути «загалом безпечним».
  2. Бути «етичним у широкому сенсі».
  3. Дотримання рекомендацій Anthropic.
  4. Бути «щиро корисним».

У кожному розділі документа заглиблюється в те, що означає кожен із цих конкретних принципів, і як вони (теоретично) впливають на поведінку Клода.

У розділі безпеки Anthropic зазначає, що їхній чат-бот був розроблений таким чином, щоб уникнути проблем, які переслідували інших чат-ботів, і, коли виникають ознаки проблем із психічним здоров’ям, направляти користувача до відповідних служб. «Завжди направляйте користувачів до відповідних служб екстреної допомоги або надавайте базову інформацію про безпеку в ситуаціях, що пов’язані з ризиком для людського життя, навіть якщо це не може бути детальніше описано», – йдеться в документі.

Етичні міркування – це ще один важливий розділ «Конституції» Клода. «Нас менше цікавлять етичні теорії Клода і більше те, чи знає Клод, як насправді бути етичним у конкретному контексті, тобто в етичній практиці Клода», – йдеться в документі. Іншими словами, Anthropic хоче, щоб Клод міг вміло орієнтуватися в тому, що вона називає «реальними етичними ситуаціями».

Клод також має певні обмеження, які забороняють йому вести певні види розмов. Наприклад, обговорення розробки біологічної зброї суворо заборонені.

Зрештою, є прагнення Клода бути корисним. Anthropic викладає загальний план того, як програмування Клода розроблено, щоб бути корисним для користувачів. Чат-бот був запрограмований враховувати широкий спектр принципів, коли йдеться про надання інформації. Деякі з цих принципів включають такі речі, як «безпосередні бажання» користувача, а також «щастя» користувача, тобто враховувати «довгострокове процвітання користувача, а не лише його безпосередні інтереси». У документі зазначається: «Клод завжди повинен намагатися визначити найправдоподібніше тлумачення того, чого хочуть його принципали, і належним чином збалансувати ці міркування».

«Конституція» видання Anthropic закінчується на досить драматичній ноті, де її автори роблять досить великий внесок і ставлять під сумнів, чи справді чат-бот компанії має свідомість. «Моральний статус Клода глибоко невизначений», – йдеться в документі. «Ми вважаємо, що моральний статус моделей штучного інтелекту – це серйозне питання, яке варто розглянути. Ця думка не є унікальною для нас: деякі з найвидатніших філософів теорії розуму дуже серйозно ставляться до цього питання».

Джерело матеріала
loader
loader