![ChatGPT може бути не настільки енергоємним, як раніше вважалося](https://thumbor.my.ua/a0XL1D-c0wqHr2aX6otPyIv-Jew=/800x400/smart/filters:format(webp)/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F434%2Fd1eb61df775e7d492c63b170cd712276.png)
ChatGPT може бути не настільки енергоємним, як раніше вважалося
ChatGPT , платформа чат-ботів OpenAI, може бути не такою енергомісткий, як раніше вважалося. Але, згідно з новим дослідженням, його апетит значною мірою залежить від того, як використовується ChatGPT, і моделей ШІ, які відповідають на запити.
Недавній аналіз, проведений Epoch AI, некомерційним дослідницьким інститутом штучного інтелекту, спробував підрахувати, скільки енергії споживає типовий запит ChatGPT. Часто згадувана статистика полягає в тому, що ChatGPT вимагає близько 3 ват-годин енергії, щоб відповісти на одне запитання, або в 10 разів більше, ніж пошук у Google.
Використовуючи останню стандартну модель OpenAI для ChatGPT, GPT-4o , як еталон, Epoch виявила, що середній запит ChatGPT споживає близько 0,3 ват-годин — менше, ніж багато побутових приладів.
«Споживання енергії насправді не є великою проблемою порівняно з використанням звичайних приладів, опаленням чи охолодженням вашого будинку, або водінням автомобіля», — сказав TechCrunch Джошуа Ю, аналітик даних Epoch, який проводив аналіз.
Енергоспоживання штучного інтелекту та його вплив на навколишнє середовище, загалом кажучи, є предметом суперечливих дискусій, оскільки компанії ШІ прагнуть швидко розширити свою інфраструктуру. Лише минулого тижня група з понад 100 організацій опублікувала відкритий лист із закликом до індустрії штучного інтелекту та регуляторів переконатися, що нові центри обробки даних штучного інтелекту не виснажують природні ресурси та не змушують комунальні підприємства покладатися на невідновлювані джерела енергії.
Ви сказали TechCrunch, що його аналіз був викликаний тим, що він назвав застарілим попереднім дослідженням. Ви зазначили, наприклад, що автор звіту, який прийшов до оцінки 3 ват-годин, припустив, що OpenAI використовує старіші, менш ефективні чіпи для запуску своїх моделей.
«Я бачив багато публічних дискурсів, які правильно визнавали, що штучний інтелект буде споживати багато енергії в найближчі роки, але насправді не точно описували енергію, яка йде на штучний інтелект сьогодні», — сказав Ю. «Крім того, деякі з моїх колег помітили, що найпоширеніша оцінка 3 ват-годин на запит була заснована на досить старих дослідженнях, і на основі певної математики серветок здавалася занадто високою».
Зрозуміло, цифра Epoch у 0,3 ват-години також є приблизною; OpenAI не опублікував деталі, необхідні для точного розрахунку.
Аналіз також не враховує додаткові витрати на електроенергію, пов’язані з такими функціями ChatGPT, як створення зображень або обробка вхідних даних. Ви визнали, що запити ChatGPT із «довгим введенням» — наприклад, запити із вкладеними довгими файлами — ймовірно споживають більше електроенергії наперед, ніж звичайне запитання.
«[Штучний інтелект] стане більш вдосконаленим, навчання цього штучного інтелекту, ймовірно, потребуватиме набагато більше енергії, і цей майбутній штучний інтелект може використовуватися набагато інтенсивніше — вирішувати набагато більше завдань і складніших завдань, ніж те, як люди використовують ChatGPT сьогодні», — сказав Ти.
Попри те, що за останні місяці відбулися значні прориви в ефективності штучного інтелекту, очікується, що масштаби розгортання штучного інтелекту сприятимуть величезному, енергоємному розширенню інфраструктури. Відповідно до звіту Rand , у найближчі два роки центрам обробки даних зі штучним інтелектом може знадобитися майже вся потужність електроенергії Каліфорнії 2022 року (68 ГВт) . До 2030 року навчання передової моделі може вимагати потужності, еквівалентної потужності восьми ядерних реакторів (8 ГВт), прогнозується у звіті.
Лише ChatGPT охоплює величезну кількість людей, яка постійно зростає, що робить вимоги до його сервера такими ж великими. OpenAI разом із кількома інвестиційними партнерами планує витратити мільярди доларів на нові проекти центрів обробки даних AI протягом наступних кількох років.
Увага OpenAI — як і решти індустрії штучного інтелекту — також зосереджується на моделях міркування, які, як правило, є більш ефективними з погляду завдань, які вони можуть виконати, але вимагають більше обчислень для виконання. На відміну від таких моделей, як GPT-4o, які відповідають на запити майже миттєво, моделі міркування «думають» від секунд до хвилин, перш ніж відповісти, процес, який забирає більше обчислювальних ресурсів — і, отже, потужності.
«Моделі міркування дедалі частіше вирішуватимуть завдання, які не можуть виконувати старі моделі, і створюватимуть для цього більше [даних], і обидва вимагатимуть більше центрів обробки даних», — сказав Ви.
OpenAI почав випускати більш енергоефективні моделі міркування, такі як o3-mini . Але здається малоймовірним, принаймні на даному етапі, що підвищення ефективності компенсує підвищені вимоги до потужності, пов’язані з процесом «мислення» моделей міркування та зростаючим використанням штучного інтелекту в усьому світі.
Ви запропонували людям, які стурбовані своїм енергетичним слідом штучного інтелекту, рідко використовувати такі програми, як ChatGPT, або вибирати моделі, які мінімізують необхідні обчислення — наскільки це реально.
«Ви можете спробувати використати менші моделі штучного інтелекту, такі як [OpenAI] GPT-4o-mini, — сказав Ви, — і економно використовувати їх у спосіб, який вимагає обробки або генерації тонни даних».
![loader](/files/images/preloader.gif)
![loader](/files/images/preloader.gif)