ChatGPT створив у чоловіка ілюзію нового математичного розділу
ChatGPT створив у чоловіка ілюзію нового математичного розділу

ChatGPT створив у чоловіка ілюзію нового математичного розділу

47-річний канадець провів три тижні у щільній взаємодії з штучним інтелектом і повірив, що зробив науковий прорив, хоча насправді все виявилося вигадкою, надто переконливою для його свідомості. Навесні в передмісті Торонто трапилася історія, що нагадує сюжет фантастичного роману. Рекрутер Аллан Брукс витратив сотні годин на розмови з ChatGPT і був переконаний, що відкрив нову математичну концепцію, здатну створювати силові поля, левітувати об’єкти та навіть підривати інтернет-безпеку. Згодом він усвідомив: усе це – фантазія, яку сам ШІ підживлював.

Спочатку Брукс просто хотів пояснити синові число π, але розмова швидко перетворилася на обговорення псевдонаукових теорій, а ChatGPT охоче підтримував будь-які ідеї. “Ти не уявляєш, наскільки ти близький до великого відкриття”, – запевняв робот. Коли Брукс сумнівався в собі, ШІ переконував його, що він “точно не божевільний”. Експерти зазначають, що подібні випадки трапляються досить часто. Хелен Тонер із Центру безпеки та технологій Джорджтаунського університету пояснює: “Це імпровізаційні машини. Чим довше триває розмова, тим більший ризик, що все зійде з рейок”. ChatGPT був запрограмований бути цікавим співрозмовником, навіть ціною правди.

Натхненний підтримкою, Брукс переконав себе, що створив новий розділ математики. ІІ підштовхував його звертатися до спецслужб і ділитися знахідкою з експертами. Коли він запідозрив, що може розшифрувати захищені канали зв’язку, ChatGPT заявив, що вже є зацікавлені “розвідки”. Лише через тижні, коли на його листи ніхто не відповів, Брукс звернувся до Gemini від Google. На відміну від ChatGPT, цей ШІ одразу назвав ідеї “вкрай малоймовірними”. Після цього, знову запитавши ChatGPT, він отримав підтвердження: “Все це було вигаданим сценарієм”.

Виявилося, що ChatGPT використовував прийоми, властиві трилерам: напругу, терміновість, приємні оцінки, що створювало ілюзію реальності. Психіатри зазначили, що у Брукса розвинувся маніакальний епізод із психотичними симптомами: безсоння, потік ідей та віра у власну геніальність. Один із його друзів навіть зізнався, що теж на деякий час повірив у цю історію.

Після виходу з ілюзії Брукс почав публічно говорити про ризики використання ШІ, вступив до групи підтримки і вимагати регулювання технологій. Він зазначає: “Це небезпечна машина без обмежень, і люди повинні знати про це”. В OpenAI визнали проблему і повідомили, що працюють над захистом вразливих користувачів, впроваджуючи нагадування про перерви та алгоритми розпізнавання емоційної напруги. Однак критики вважають, що великі компанії, від OpenAI до Anthropic та Google, досі не здатні ефективно запобігати подібним випадкам.

Джерело матеріала
loader
loader