OpenAI не может распознать текст собственного чат-бота ChatGPT: как это получилось
OpenAI не может распознать текст собственного чат-бота ChatGPT: как это получилось

OpenAI не может распознать текст собственного чат-бота ChatGPT: как это получилось

Защитный механизм от нерадивых студентов и школьников, использующих нейросеть, далек от идеала.

Related video

Компания OpenAI, которая является разработчиком самого нашумевшего чат-бота ChatGPT попробовала ввести защитный механизм от использования своей нейросети для написания дипломов, сочинений и школьных работ нерадивыми учащимися, но у нее это не получилось, сообщает The Vice.

Компания выпустила специальный классификатор, который должен был сравнивать работы написанные человеком и собственным чат-ботом и определять авторство. Но, как признает сама OpenAI, ее механизм работает очень плохо и может найти различия только в 26% случаев.

Кроме того, в 9% случаев классификатор помечает текст написанный человеком, под авторством ИИ. Самая большая проблема возникает с текстами написанных на других языках, а не на "родном" английском.

Свой инструмент OpenAI разработала специально для преподавателей. Которые все чаще жалуются. Что их учащиеся используют ChatGPT для написания любых работ: от сочинений и эссе до заданий по программированию. Сами же учителя не в состоянии распознать авторство представленного на оценку труда.

Впрочем, пока OpenAI совершенствует свой классификатор, 22-летний студент Эдвард Тиан разработал свой собственный детектор ChatGPT, бета-версию которого он запустил несколько дней назад и назвал его GPTZeroX. В этом чат-боте можно загрузить текст и проверить, кто его написал: человек или ИИ. Эдвард утверждает, что его механизм ошибается менее чем в 2% случаев.

Ранее Фокус писал, что ChatGPT оказался лучше 80% соискателей на вакансию, которую открыло консалтинговое агентство Schwa.

Источник материала
Поделиться сюжетом