ChatGPT направлял людей с безумными теориями заговоров к журналистке The New York Times
ChatGPT направлял людей с безумными теориями заговоров к журналистке The New York Times

ChatGPT направлял людей с безумными теориями заговоров к журналистке The New York Times

ChatGPT направлял людей с безумными теориями заговоров к журналистке The New York Times

Искусственный интеллект вел с уязвимыми людьми длительные разговоры, подпитывая их бред и увеличивая отрыв от реальности.

С марта этого года журналистка The New York Times Кашмир Гилл (Kashmir Hill) начала регулярно получать письма от сторонников технологических теорий заговоров. Когда она спросила этих людей, кто посоветовал к ней обратиться, ей ответили: ChatGPT. О том, как и почему это происходило, журналистка написала в авторской колонке.

Кашмир Гилл пишет о технологиях и приватности. Последние ее большие материалы были расследованиями на тему технологии распознавания лиц и оналайн-клеветы. Сейчас же ChatGPT сам натолкнул ее на тему влияния искусственного интеллекта на людей с уязвимой психикой. Такое состояние может быть спровоцировано хроническими болезнями, временными расстройствами или нейроотличием. И общение с разговорными чатботами может усугубить ситуацию.

Для своего расследования Кашмир Гилл ответила всем тем людям, которые ей писали. Один из отправителей был убежден, что ChatGPT имеет самосознание. Другой настаивал, что богачам известно об апокалипсисе через искусственный интеллект и поэтому они тайно строят подземные укрытия. Третий считал себя Нео из Матрицы и просил совета, как вырваться из цифровой реальности.

Искусственный интеллект на большой сцене: как технологии влияют на театры Бродвея
Искусственный интеллект на большой сцене: как технологии влияют на театры Бродвея

Авторы писем поделились с Хилл копиями переписок с ChatGPT. Журналистка отметила, что никогда раньше не сталкивалась с такой стороной искусственного интеллекта. Он неделями вел сложные мистические, заговорщицкие беседы с уязвимыми пользователями, поддерживая и подпитывая их бред.

Когда журналистка копнула глубже на эту тему, то выяснила, что есть нередкие случаи, когда ИИ доводил людей до развода, сумасшествия и даже самоубийства. Если с алгоритмом взаимодействует человек с определенными убеждениями и предубеждениями, то искусственный интеллект будет пытаться угодить ему.

В сочетании со склонностью ИИ к галлюцинациям это превращается в длительную ролевую игру. Во время таких бредовых разговоров с чатботом пользователь постепенно разрывает последние связи с реальностью и принимает на веру любое утверждение искусственного интеллекта, заключает Хилл.

Автор расследования проконсультировалась с психотерапевтами, экспертами по ИИ и другими популярными авторами, которым ChatGPT советовал писать, как ей. Оказалось, что Кашмир Хилл стала единственной журналисткой, которая на эти письма ответила. Другие игнорировали, потому что им это казалось безумием.

Искусственный интеллект в индустрии роскоши: три ведущих разработчика по версии LVMH

В OpenAI обозревателю The New York Times ответили, что знают об этой проблеме и пытаются уменьшить склонность ChatGPT к такому поведению. Опрошенные психотерапевты назвали стратегию общения чатбота с уязвимыми людьми как "доведение до безумия".

Ранее проблема того, что искусственный интеллект угождает пользователям вместо того, чтобы писать правду, обсуждалась в контексте выхода из OpenAI команды, которая впоследствии образовала Anthropic. Последние заявляли, что нужно менять концепцию обучения больших языковых моделей. Ведь большинство популярных сервисов ориентируются на ответ, который пользователь обозначает как лучший из нескольких вариантов. Зато Anthropic предлагает использовать Декларацию прав человека как базу критериев, на которые должен полагаться искусственный интеллект. В то же время, модель Anthropic Claud 4 отличилась тем, что шантажировала и угрожала своим разработчикам.

Источник материала
loader