Віцепрезидент і провідний дослідник штучного інтелекту корпорації Meta Ян Лекун висловився щодо можливої загрози для людини з боку ШІ. За його словами, подібні припущення не мають нічого спільного з реальним станом справ у цьому сегменті, пише WSJ.
Лауреат премії Тюрінга вважає, що ШІ, як і раніше, перебуває на зародковому етапі розвитку. Великим мовним моделям (LLM) досі не вистачає кількох ключових компонентів, які дадуть їм змогу наблизитися хоча б до рівня котячого мислення, впевнений учений.
Зокрема, ці проєкти не володіють постійною пам’яттю, міркуваннями, умінням планувати та розуміти фізичний світ, підкреслив Лекун. Дослідник заявив, що LLM лише навчилися «маніпулювати мовою і при цьому не бути розумними». Подібні розробки ніколи не приведуть до створення так званого штучного інтелекту загального призначення (AGI).
Відповідаючи на запитання журналістів про те, чи стане ШІ досить розумним, щоб становити екзистенціальну загрозу для всього людства, Лекун не став приховувати скептицизму.
«Ви вже вибачте мою французьку, але це повна маячня», — заявив віцепрезидент Meta.
Вчений зазначив, що для створення AGI експертам з галузі необхідно переглянути підхід у роботі з технологією. Як приклад він вказав на роботу з ШІ-аналізу відео реального світу, виконану його групою фундаментальних досліджень корпорації Meta.
Зазначимо, що в грудні 2023 року Ян Лекун заявив, що в найближчі 10 років штучний інтелект не зможе досягти рівня людського розуму. За його словами, для навчання ШІ недостатньо отримувати інформацію з текстових матеріалів і аудіодоріжок. У світі є багато даних, які ці джерела не охоплюють з різних причин, вважає вчений.