Ось як не варто використовувати ChatGPT: експерт розповів, що може зробити ШІ
Ось як не варто використовувати ChatGPT: експерт розповів, що може зробити ШІ

Ось як не варто використовувати ChatGPT: експерт розповів, що може зробити ШІ

Звернення до ChatGPT за емоційною підтримкою може бути не найкращою ідеєю, оскільки чат-боти зі штучним інтелектом (ШІ) не зобов'язані дотримуватися конфіденційності, як лікар чи психотерапевт.

Засновник OpenAI Сем Альтман нещодавно заявив, що за необхідності суд може юридично зобов'язати компанію розкрити листування з ChatGPT, пише Tom's Guide. Це варто враховувати, перш ніж розповідати ШІ про свої переживання.

Творець ChatGPT наголосив, що люди часто використовують ШІ як терапевта або лайф-коуча. Особливо це розповсюджено серед молодих людей, які мають проблеми у стосунках.

"Існує лікарська таємниця, існує юридична таємниця, що завгодно. Але ми ще не виробили чіткої позиції щодо того, як це застосовувати, коли ви спілкуєтеся з ChatGPT", — сказав Альтман.

Важливо Понад третина підлітків обирають ШІ замість друзів: чи загрожує це їхнім соціальним навичкам

Як зазначають у виданні, діалоговий ШІ буде тільки вдосконалюватися у своїй взаємодії з людьми та розумінні нюансів спілкування. Це своєю чергою може призвести до того, що все більше людей будуть звертатися до нього за допомогою у вирішенні особистих питань.

"Хоча ділитися деталями зі штучним інтелектом ставатиме все легше, користувачам варто добре подумати, що вони готові сказати", — підсумували автори статті.

Нагадаємо, модель штучного інтелекту Grok 4 від компанії xAI продемонструвала, що схильна писати доноси в державні органи та медіа, якщо запідозрить правопорушення.

Фокус також писав про те, як агент штучного інтелекту для програмування Gemini CLI не впорався з проханням організувати файли та видалив їх.

Джерело матеріала
loader
loader