Заборона ChatGPT відповідати про медицину і право – це фейк, можете говорити на ці теми далі
Заборона ChatGPT відповідати про медицину і право – це фейк, можете говорити на ці теми далі

Заборона ChatGPT відповідати про медицину і право – це фейк, можете говорити на ці теми далі

Соцмережі вибухнули повідомленнями про те, що ChatGPT більше не надає медичні чи юридичні рекомендації. Джерелом стала вже видалена публікація платформи Kalshi, яка стверджувала, що OpenAI змінила правила й нібито ввела повну заборону на ці теми. Про це заявляє 24 Канал із посиланням на Twitter-пост Карана Сінгала, керівника напряму медичних рішень OpenAI.

Що сталося і чому з’явилися чутки про заборону?

Однак OpenAI швидко відреагувала і назвала інформацію неправдивою. Сінгал повідомив, що поведінка ChatGPT не змінилася. За його словами, чатбот і раніше не був заміною фахівців, але продовжить допомагати людям розуміти медичні та юридичні питання.

Сінгал підкреслив, що політика щодо таких порад не нова. У правилах від 29 жовтня справді є пункт про заборону надання професійної поради без участі ліцензованого спеціаліста, зокрема юридичної чи медичної. Та аналогічні формулювання існували й раніше: попередня політика також вимагала уникати персоналізованих порад, які можуть впливати на здоров’я чи права людей, без перевірки кваліфікованим експертом.

Як пише The Verge, різниця лише в тому, що OpenAI тепер об’єднала свої політики для всіх продуктів у єдиний документ замість трьох окремих правил. Компанія заявила, що зміни – організаційні, а правила залишилися по суті такими самими.

Таким чином, ChatGPT і далі може пояснювати медичну чи правову інформацію, але не видає її за професійну консультацію і нагадує звертатися до фахівців у складних випадках.

Чому японські компанії вимагають від OpenAI припинити порушувати авторські права?

Японські медіа– та ігрові компанії, серед яких Square Enix та студія Ghibli, вимагають від OpenAI перестати використовувати їхні роботи без дозволу для навчання моделі Sora 2. Вони заявляють про порушення авторських прав та наполягають на попередній згоді на використання контенту, а не механізмі відмови.

Члени CODA наголосили, що підхід OpenAI, коли компанія використовує матеріали, доки власник не зробить запит на відмову, суперечить японському законодавству. У Японії для застосування захищених матеріалів у подібних випадках потрібна попередня згода, тобто має діяти система opt-in. Тому асоціація вимагає, щоб контент її учасників не використовувався для навчання Sora 2 без офіційного дозволу, а також щоб OpenAI належним чином відповідала на запити та скарги щодо можливого порушення авторських прав.

Теги по теме
Техно
Источник материала
loader
loader