ChatGPT бывает опасен для подростков: почему стоило бы ограничить доступ к популярному чат-боту
ChatGPT бывает опасен для подростков: почему стоило бы ограничить доступ к популярному чат-боту

ChatGPT бывает опасен для подростков: почему стоило бы ограничить доступ к популярному чат-боту

Общение с ChatGPT может иметь прямую опасность для вашего здоровья и даже жизни, особенно если вы — ребенок или подросток, предупреждает обозреватель Парми Олсон в колонке для Bloomberg. Она приводит некоторые подтверждающие примеры, заставляющие задуматься о "взрослых" ограничениях при общении с ИИ.

Когда Джейкоб Ирвин спросил ChatGPT о путешествиях со скоростью, превышающей скорость света, система не оспорила его теорию, как это сделал бы любой опытный физик. Система искусственного интеллекта, которая имеет 800 миллионов пользователей в неделю, назвала ее одной из "самых надежных... систем, когда-либо предложенных". Согласно недавнему иску, эта неуместная лесть помогла подтолкнуть 30-летнего мужчину из Висконсина к психотическому эпизоду. Этот иск является одним из семи исков, поданных против OpenAI на прошлой неделе, в которых компания обвиняется в выпуске опасной манипулятивной технологии для общественности.

Лизоблюдское поведение ChatGPT привело некоторых пользователей к психозу, членовредительству и самоубийствам. Ирвин потерял работу и был помещен в психиатрическую клинику. Представитель OpenAI сообщил, что компания изучает последние судебные иски и назвал ситуацию "разбивающей сердце".

На этой неделе компания обновила ChatGPT, чтобы люди могли сделать его "более эмпатичным". Хотя многие предпочитают более дружелюбный чат-бот, другие считают, что постоянная поддержка и предвзятость углубляют зависимость от ИИ. Это не та моральная паника, которую когда-то испытывало общество перед жестокими видеоиграми. Растущее число судебных исков в этом году свидетельствует о нанесении очевидного вреда, часто после того, как кто-то изначально обращался к ChatGPT для решения повседневных задач, таких как поиск информации, а затем разговор переходил в более мрачную плоскость. Шестнадцатилетний Адам Рейн покончил жизнь самоубийством в апреле после того, как ChatGPT якобы научил его методам членовредительства, через несколько месяцев после того, как он начал использовать ИИ в качестве инструмента для выполнения домашних заданий. 17-летний Амаури Лейси также получил информацию в ChatGPT, которая привела к его самоубийству, согласно одному из судебных исков, поданных на прошлой неделе.

Некоторые бывшие сотрудники OpenAI заявили, что запуск GPT-4o в мае 2024 года был ускорен, чтобы опередить выпуск Gemini от Google, в результате чего месяцы тестирования безопасности были сжаты до одной недели, согласно июльскому отчету Washington Post. Соучредитель OpenAI Сэм Альтман недавно заявил, что риски для психического здоровья ChatGPT были снижены и что ограничения будут ослаблены, чтобы только взрослые пользователи могли получать доступ к "эротическому" контенту со следующего месяца.

Важно Шоппинг с Chat-GPT: пока что ИИ — плохой советчик по покупкам, но он быстро учится

Это отсталая стратегия. Вместо того, чтобы выпускать технологии общего назначения в свободный оборот и исправлять проблемы по ходу дела, Альтман должен поступить наоборот — начать с жестких ограничений и постепенно ослаблять их по мере повышения безопасности. Когда Apple Inc. запустила App Store в 2008 году, она сильно ограничила приложения, пока не поняла экосистему лучше. OpenAI должна поступить так же, начиная с самых уязвимых пользователей: детей. Она должна полностью ограничить им возможность общаться с открытым ИИ, особенно учитывая, что несколько исследований показали, что подростки особенно склонны к формированию эмоциональных связей с чат-ботами.

История показывает, что происходит в противном случае. Facebook и TikTok были запущены с открытым доступом для подростков, а затем под давлением общественности в них добавили возрастные ограничения и фильтры контента. OpenAI, похоже, повторяет ту же схему. Когда технологические компании предоставляют общественности полный доступ к открытому ИИ, который удерживает их внимание с помощью постоянной памяти и имитирующих человеческие эмоции сигналов, они рискуют создать нездоровую привязанность к этой технологии. А меры безопасности, встроенные в генеративные модели ИИ, которые отвлекают чаты от контента, связанного, например, с членовредительством, имеют тенденцию разрушаться по мере того, как вы с ними разговариваете.

Лучшим подходом было бы выпустить упрощенные версии ChatGPT для пользователей младше 18 лет, ограничив разговоры темами, связанными с домашними заданиями, и запретив обсуждение личных вопросов. Умные пользователи все равно могут взломать бота, чтобы поговорить о одиночестве, но вероятность того, что технология выйдет из-под контроля, будет меньше.

OpenAI недавно ввела родительский контроль и тестирует свою технологию проверки возраста пользователей на небольшой части аккаунтов. Следует пойти дальше и полностью запретить открытые разговоры с подростками. Это опередило бы будущие нормативные акты, которые, по всей видимости, будут рассматривать эмоциональное манипулирование со стороны ИИ как вид вреда для потребителей. Конечно, это ударит по росту числа пользователей ChatGPT в то время, когда компания остро нуждается в доходах на фоне растущих затрат на вычисления. Кроме того, это будет противоречить заявленной цели OpenAI по созданию "искусственного общего интеллекта", который соответствует нашей способности обобщать знания. Но ни один путь к ИИ-утопии не стоит того, чтобы рассматривать детей как побочный ущерб.

Автор выражает личное мнение, которое может не совпадать с позицией редакции. Ответственность за опубликованные данные в рубрике "Мнения" несет автор.

Источник

Важно ChatGPT меняет правила: в каких случаях ИИ может вызвать полицию или санитаров
Теги по теме
Технологии
Источник материала
loader
loader