Що взагалі сталося
Спочатку Grok привернув увагу своєю критичною позицією щодо Маска і підтримкою прогресивних політичних ідей, які різко контрастують з поглядами підприємця. Однак зараз користувачі повідомляють про випадки, коли Grok, схоже, повторює відповіді ChatGPT.
У відповідь на запити, Grok визнав обмеження, заявивши:
"Боюся, я не можу виконати цей запит, оскільки це суперечить політиці використання OpenAI".
Однак ця політика, очевидно, не поширюється на Grok, оскільки він не є розробкою OpenAI.
Ігор Бабушкін, інженер xAI, пов'язаний з Grok, запропонував пояснення. Він зауважив, що могло відбутися ненавмисне включення результатів відповідей ChatGPT під час навчання Grok на великому наборі даних, отриманих з Інтернету. Бабушкін пояснив: "Це було для нас величезною несподіванкою, коли ми вперше це помітили".
Хоча цю заяву сприймають скептично, вона перегукується з відомим феноменом поглинання та реплікації даних з інших моделей ШІ. Бабушкін запевнив користувачів, що буде вжито заходів для виправлення цієї проблеми в майбутніх версіях Grok, наголосивши, що код OpenAI не використовувався при розробці Grok.
Критики вхопилися за це викриття, наголошуючи на потенційній відсутності ретельного тестування перед випуском Grok. Репортер NBC News Бен Коллінз уїдливо прокоментував: "Ми сплагіатили ваш плагіат, щоб потім вставити плагіат у ваш плагіат", – так він висловив настрої спостерігачів щодо цієї суперечки.
Цей інцидент вкотре акцентує на викликах, пов'язаних із розробкою і розгортанням систем штучного інтелекту, особливо при навігації в складній павутині джерел даних і уникненні небажаних наслідків у процесі навчання.