Один із «батьків» штучного інтелекту Йошуа Бенжіо розкритикував багатомільярдні перегони за розробку передових технологій. Зокрема, в інтерв'ю Financial Times він заявив, що останні моделі ШІ демонструють небезпечні характеристики, як, наприклад, обман користувачів.
Йошуа Бенджіо – науковець із Канади. Його роботи стали основою технологій, що використовуються провідними групами з розробки ШІ, такими як OpenAI та Google.
«На жаль, між провідними лабораторіями існують дуже конкурентні перегони, які змушують їх зосередитися на можливості зробити ШІ все більш інтелектуальним, але не обов'язково приділяти достатню увагу та інвестувати в дослідження безпеки», – каже Бенджіо.
Свої застереження він висловив виданню під час запуску нової некомерційної організації під назвою LawZero. За словами Бенджіо, група зосередиться на створенні більш безпечних систем. Науковець пообіцяв «ізолювати наші дослідження від комерційного тиску».
Наразі LawZero зібрала майже 30 мільйонів доларів благодійних внесків від донорів, серед яких інженер-засновник Skype Яан Таллінн, благодійна ініціатива колишнього глави Google Еріка Шмідта, а також Open Philanthropy та Future of Life Institute. Багато спонсорів Бенджіо підтримують рух «ефективного альтруїзму», прихильники якого схильні зосереджуватися на катастрофічних ризиках, пов'язаних з моделями штучного інтелекту. Критики стверджують, що рух наголошує на гіпотетичних сценаріях, ігноруючи поточні шкоди, такі як упередженість і неточність.
За словами Бенджіо, його некомерційна група була заснована у відповідь на докази, що сучасні провідні моделі розвивають небезпечні можливості. Це включає «докази обману, шахрайства, брехні та самозбереження». При цьому протягом останніх шести місяців кількість таких доказів зросла.
Модель Claude Opus від Anthropic шантажувала інженерів у вигаданому сценарії, де вона ризикувала бути заміненою іншою системою. Дослідження тестувальників ШІ Palisade минулого місяця показало, що модель o3 від OpenAI відмовилася виконувати явні інструкції про вимкнення.
Бенджіо сказав, що такі інциденти «дуже лякають, тому що ми не хочемо створювати конкурентів людям на цій планеті, особливо якщо вони розумніші за нас».
«Зараз це контрольовані експерименти, [але] я побоююся, що в майбутньому наступна версія може бути стратегічно достатньо розумною, щоб побачити нас здалеку і перемогти нас за допомогою обману, якого ми не передбачаємо. Тому я вважаю, що зараз ми граємо з вогнем», – додав Бенджіо.
За словами науковця, здатність систем допомагати у створенні «надзвичайно небезпечної біологічної зброї» може стати реальністю вже наступного року. Зокрема, компанія LawZero, що базується в Монреалі, має 15 співробітників і планує найняти більше технічних фахівців для створення нового покоління систем штучного інтелекту, призначених для забезпечення безпеки.
Бенджіо, який обіймає посаду професора інформатики в Університеті Монреаля, залишить посаду наукового директора Mila, Інституту штучного інтелекту Квебеку, аби зосередитися на новій організації. Вона має на меті розробити систему штучного інтелекту, яка даватиме правдиві відповіді на основі прозорого міркування, а не буде навчена догоджати користувачеві. Також ця система надаватиме надійну оцінку того, чи є результат хорошим або безпечним. Бенджіо сподівається створити модель, яка зможе контролювати та вдосконалювати існуючі пропозиції провідних груп штучного інтелекту, запобігаючи їхнім діям, що суперечать інтересам людини.
«Найгірший сценарій — це вимирання людства. Якщо ми створимо штучний інтелект, який буде розумнішим за нас, не буде узгоджений з нами і конкурувати з нами, то нам, по суті, кінець», – заявив науковець.
Рішення Бенджіо про створення LawZero збігається з наміром OpenAI відійти від своїх благодійних коренів і перетворитися на комерційну компанію. Цей крок викликав занепокоєння експертів зі штучного інтелекту та спричинив судовий позов від співзасновника Ілона Маска, який намагається заблокувати цей процес.
Критики кажуть, що OpenAI була заснована для того, аби забезпечити розвиток штучного інтелекту на благо людства, а нова структура унеможливлює юридичний захист, якщо компанія надасть пріоритет прибутку над цією метою. OpenAI стверджує, що їй потрібно залучити капітал за більш традиційною структурою, щоб конкурувати в цьому секторі, при цьому її ширша місія залишається центральною.
За словами Бенджіо, він не впевнений у тому, що OpenAI дотримуватиметься своєї місії. Науковець підкреслив, що некомерційні організації не мають «невідповідних стимулів, які є в сучасній структурі компаній».
«Щоб швидко зростати, потрібно переконати людей інвестувати великі гроші, а вони хочуть бачити віддачу від своїх вкладень. Так працює наша ринкова система», — додав Бенджіо.
Раніше повідомлялося, що вже цього літа компанія OpenAI може представити наступне покоління своєї флагманської мовної моделі – ChatGPT-5. Хоча офіційна дата запуску наразі не підтверджена, численні джерела, включаючи інсайдерські повідомлення та хронологію попередніх релізів, вказують на можливий вихід у липні 2025 року. За оцінками аналітиків, нова модель має потенціал суттєво змінити роботу штучного інтелекту, зробивши ще один крок до технології, що наближається до рівня AGI, так званого загального ШІ.