ChatGPT буває небезпечним для підлітків: чому варто було б обмежити доступ до популярного чат-бота
ChatGPT буває небезпечним для підлітків: чому варто було б обмежити доступ до популярного чат-бота

ChatGPT буває небезпечним для підлітків: чому варто було б обмежити доступ до популярного чат-бота

Спілкування з ChatGPT може мати пряму небезпеку для вашого здоров'я і навіть життя, особливо якщо ви — дитина або підліток, попереджає оглядачка Пармі Олсон у колонці для Bloomberg. Вона наводить деякі підтверджувальні приклади, що змушують замислитися про "дорослі" обмеження під час спілкування з ШІ.

Коли Джейкоб Ірвін запитав ChatGPT про подорожі зі швидкістю, що перевищує швидкість світла, система не заперечила його теорію, як це зробив би будь-який досвідчений фізик. Система штучного інтелекту, яка має 800 мільйонів користувачів на тиждень, назвала її однією з "найнадійніших... систем, коли-небудь запропонованих". Згідно з нещодавнім позовом, ці недоречні лестощі допомогли підштовхнути 30-річного чоловіка з Вісконсина до психотичного епізоду. Цей позов є одним із семи позовів, поданих проти OpenAI минулого тижня, в яких компанія звинувачується у випуску небезпечної маніпулятивної технології для громадськості.

Лизоблюдська поведінка ChatGPT привела деяких користувачів до психозу, членоушкодження і самогубств. Ірвін втратив роботу і був поміщений у психіатричну клініку. Представник OpenAI повідомив, що компанія вивчає останні судові позови і назвав ситуацію такою, що "розбиває серце".

Цього тижня компанія оновила ChatGPT, щоб люди могли зробити його "більш емпатичним". Хоча багато хто віддає перевагу більш доброзичливому чат-боту, інші вважають, що постійна підтримка й упередженість поглиблюють залежність від ШІ. Це не та моральна паніка, яку колись відчувало суспільство перед жорстокими відеоіграми. Щораз більше число судових позовів цього року свідчить про завдання очевидної шкоди, часто після того, як хтось спочатку звертався до ChatGPT для вирішення повсякденних завдань, як-от пошук інформації, а потім розмова переходила в похмурішу площину. Шістнадцятирічний Адам Рейн наклав на себе руки у квітні після того, як ChatGPT нібито навчив його методам членоушкодження, через кілька місяців після того, як він почав використовувати ШІ як інструмент для виконання домашніх завдань. 17-річний Амаурі Лейсі також отримав інформацію в ChatGPT, яка призвела до його самогубства, згідно з одним із судових позовів, поданих минулого тижня.

Деякі колишні співробітники OpenAI заявили, що запуск GPT-4o у травні 2024 року було прискорено, щоб випередити випуск Gemini від Google, унаслідок чого місяці тестування безпеки було стиснуто до одного тижня, згідно з липневим звітом Washington Post. Співзасновник OpenAI Сем Альтман нещодавно заявив, що ризики для психічного здоров'я ChatGPT знизили, і що обмеження послаблять, щоб тільки дорослі користувачі могли отримувати доступ до "еротичного" контенту з наступного місяця.

Важливо Шопінг із Chat-GPT: поки що ШІ — поганий порадник щодо покупок, але він швидко вчиться

Це відстала стратегія. Замість того, щоб випускати технології загального призначення у вільний обіг і виправляти проблеми в процесі роботи, Альтман повинен вчинити навпаки — почати з жорстких обмежень і поступово послаблювати їх у міру підвищення безпеки. Коли Apple Inc. запустила App Store у 2008 році, вона сильно обмежила додатки, поки не зрозуміла екосистему краще. OpenAI має вчинити так само, починаючи з найвразливіших користувачів: дітей. Вона повинна повністю обмежити їм можливість спілкуватися з відкритим ШІ, особливо з огляду на те, що кілька досліджень засвідчили, що підлітки особливо схильні до формування емоційних зв'язків із чат-ботами.

Історія показує, що відбувається в іншому випадку. Facebook і TikTok були запущені з відкритим доступом для підлітків, а потім під тиском громадськості в них додали вікові обмеження і фільтри контенту. OpenAI, схоже, повторює ту саму схему. Коли технологічні компанії надають громадськості повний доступ до відкритого ШІ, який утримує їхню увагу за допомогою постійної пам'яті та сигналів, що імітують людські емоції, вони ризикують створити нездорову прихильність до цієї технології. А заходи безпеки, вбудовані в генеративні моделі ШІ, які відволікають чати від контенту, пов'язаного, наприклад, із членоушкодженням, мають тенденцію руйнуватися в міру того, як ви з ними розмовляєте.

Найкращим підходом було б випустити спрощені версії ChatGPT для користувачів молодше 18 років, обмеживши розмови темами, пов'язаними з домашніми завданнями, і заборонивши обговорення особистих питань. Розумні користувачі все одно можуть зламати бота, щоб поговорити про самотність, але ймовірність того, що технологія вийде з-під контролю, буде меншою.

OpenAI нещодавно запровадила батьківський контроль і тестує свою технологію перевірки віку користувачів на невеликій частині акаунтів. Слід піти далі і повністю заборонити відкриті розмови з підлітками. Це випередило б майбутні нормативні акти, які, вочевидь, розглядатимуть емоційне маніпулювання з боку ШІ як вид шкоди для споживачів. Звичайно, це вдарить по зростанню числа користувачів ChatGPT у той час, коли компанія гостро потребує доходів на тлі дедалі більших витрат на обчислення. Крім того, це суперечитиме заявленій меті OpenAI зі створення "штучного загального інтелекту", який відповідає нашій здатності узагальнювати знання. Але жоден шлях до ШІ-утопії не вартий того, щоб розглядати дітей як побічний збиток.

Автор висловлює особисту думку, яка може не збігатися з позицією редакції. Відповідальність за опубліковані дані в рубриці "Думки" несе автор.

Джерело

Важливо ChatGPT змінює правила: в яких випадках ШІ може викликати поліцію або санітарів
Джерело матеріала
loader
loader