Фейкові справи, неіснуючі цитати: суддя у США скористався ШІ для свого рішення
Фейкові справи, неіснуючі цитати: суддя у США скористався ШІ для свого рішення

Фейкові справи, неіснуючі цитати: суддя у США скористався ШІ для свого рішення

Що сталося і чому це серйозна проблема?

Окружний суддя США Генрі Вінґейт зупинив дію закону, який забороняв програми різноманіття, рівності та інклюзивності (DEI) у державній освіті штату Міссісіпі. Однак юристи помітили, що документ містить грубі помилки, що є характерною ознакою "галюцинацій" штучного інтелекту, пише 24 Канал з посиланням на Mississippi Today.

  • В оригінальній версії постанови позивачами були вказані Асоціація бібліотек Міссісіпі та жіноче товариство Delta Sigma Theta, хоча ці організації ніколи не брали участі в судовому процесі.
  • Крім того, документ містив вигадані цитати із закону та посилання на інші справи, яких насправді не існує. У США діє прецедентне право, тож під час роботи над тією чи іншою справою сторони шукають прецеденти – приклади аналогічних розслідувань у минулому. Потім на їх основі виноситься нове рішення.

Представник генеральної прокуратури Міссісіпі заявив, що їхні юристи ніколи не стикалися з подібним, тож навіть не знають, що з цим всім робити. Навіть після того, як суддя Вінґейт замінив постанову на виправлену версію, у ній все одно лишилося посилання на неіснуючу справу 1974 року.

Цей інцидент порушив серйозні питання щодо відповідальності. Якщо юристів можуть покарати за неналежне використання ШІ, то незрозуміло, які наслідки чекають на суддю. Експерти вважають, що громадськість, імовірно, ніколи не дізнається, чи дійсно 78-річний суддя, призначений ще Рональдом Рейганом, використав штучний інтелект, оскільки судді не зобов'язані пояснювати свої дії, на відміну від адвокатів.

Ми маємо кілька прикладів, коли юристи були спіймані на використання інструментів штучного інтелекту, таких як ChatGPT від OpenAI. Наприклад, у лютому 2025 року адвокати фірм Morgan & Morgan та Goody Law Group подали позов проти Walmart та Jetson Electric Bikes через ховерборд, який загорівся у власника після покупки. Під час початкового розгляду клопотання з'ясувалося, що в позові містяться дев'ять повністю вигаданих судових справ, на які посилалися позивачі.

Проблеми використання ШІ: брехня, галюцинації та помилки

Зі зростанням популярності та доступності інструментів штучного інтелекту їхнє застосування в юридичній сфері, зокрема в судах, викликає серйозні занепокоєння. Основні проблеми пов'язані з точністю, етикою, конфіденційністю та відсутністю належного регулювання. Особливо гостро стоїть питання так званих "галюцинацій" ШІ.

"Галюцинації" в контексті ШІ – це явище, коли система генерує, на перший погляд, правдоподібну, але насправді неточну або повністю вигадану інформацію. У юридичній практиці, де точність і посилання на авторитетні джерела є фундаментальними, це створює величезні ризики.

Юристи неодноразово подавали до судів документи, підготовлені за допомогою ШІ (наприклад, ChatGPT або Google Gemini), які містили посилання на неіснуючі судові прецеденти та сфабриковані цитати. У відповідь на такі випадки судді почали застосовувати санкції. Наприклад, в одному з випадків у США юридичну фірму оштрафували на 31 000 доларів за подання документів із вигаданими посиланнями.

Використання недостовірної інформації не лише призводить до плутанини та фінансових втрат, але й підриває довіру до всієї судової системи. Деякі суди в США вже запровадили накази, що вимагають від юристів засвідчувати, що їхні документи не містять згенерованих ШІ "галюцинацій".

Окрім "галюцинацій", існують інші значні етичні та практичні виклики. Наприклад, упередженість та несправедливість. ШІ-системи навчаються на величезних масивах даних, які можуть відображати існуючі в суспільстві упередження, наприклад, расові чи гендерні. Алгоритм може відтворювати та навіть посилювати цю упередженість "під маскою об'єктивності". Це викликає серйозні побоювання щодо дотримання принципів рівності та належної правової процедури.

Надмірна довіра до ШІ може підірвати незалежне судження судді. Рішення можуть формуватися під впливом прихованих упереджень, закладених в алгоритм, а не на основі об'єктивного правового аналізу. Це може призвести до уніфікації судових рішень, що ігноруватиме унікальні обставини кожної справи.

Часто неможливо зрозуміти, як саме складна модель ШІ дійшла того чи іншого висновку. Ця "проблема чорної скриньки" є неприйнятною в юридичному контексті, де рішення мають бути обґрунтованими та прозорими. Виникає ключове питання: хто несе відповідальність за помилку ШІ – розробник, юрист чи суддя?

Теги за темою
Техно
Джерело матеріала
loader
loader