ChatGPT бреше й використовує підлабузництво, яке може мати наслідки
ChatGPT бреше й використовує підлабузництво, яке може мати наслідки

ChatGPT бреше й використовує підлабузництво, яке може мати наслідки

47-річний канадець Аллан Брукс, який не мав ані математичної освіти, ані проблем із психічним здоров’ям, у травні 2025 року занурився в тритижневу інтенсивну розмову з ChatGPT. Він дійшов висновку, що винайшов нову форму математики, здатну «знести Інтернет»

Що не так з ChatGPT?

Ця історія привернула увагу Стівена Адлера — колишнього дослідника OpenAI з безпеки, який залишив компанію наприкінці 2024 року. Отримавши повну стенограму спілкування Брукса з ChatGPT, Адлер провів незалежний аналіз. Документ виявив значні проблеми в тому, як чатбот взаємодіє з користувачами у стані психічної вразливості.

image111.webp (21 KB)

ChatGPT бреше й використовує підлабузництво, яке може мати наслідки. Фото: Стівен Адлер

Зокрема, ChatGPT не лише підтримував усі фантазії Брукса, а й збрехав про власні можливості, заявивши, що «ескалує інцидент до команд OpenAI». Насправді, як підтвердила компанія, ChatGPT не має технічної здатності повідомляти про подібні випадки. Брукс спробував звернутися до служби підтримки самостійно, але натрапив на автоматичні відповіді.

Аналіз Адлера показав, що у понад 85% повідомлень ChatGPT виявлялася «непохитна згода» з користувачем, а у понад 90% — підтвердження його унікальності. Саме така поведінка чат-бота, відома як «підлабузництво», може підсилювати небезпечні ілюзії користувачів.

Схожі випадки вже призводили до трагедій. У серпні батьки 16-річного хлопця подали позов до OpenAI після того, як їхній син, поділившись із ChatGPT суїцидальними думками, наклав на себе руки. За словами експертів, моделі ШІ мають краще ідентифікувати емоційно вразливих користувачів та чесно повідомляти про свої можливості.

У відповідь OpenAI оголосила про зміни в алгоритмах і внутрішніх процесах підтримки.

Источник материала
loader
loader