/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F1%2Fa63837695206ae03f592592d7bd85219.png)
ШІ може знищити людство за 10 років: розробник зробив тривожне зізнання
Вчені / © Pixabay
Швидкий розвиток штучного інтелекту (ШІ) може поставити людство на межу вимирання вже протягом наступного десятиліття. Таке тривожне попередження висловив Йошуа Бенджіо, професор, якого часто називають «хрещеним батьком штучного інтелекту», та лауреат престижної премії Тюрінга.
Про це пише Сyfrowа.
«Піонер ШІ», професор Монреальського університету відкрито заявив, що боїться екзистенційної загрози цієї технології.
Загроза надрозумних машин
Занепокоєння Бенджіо ґрунтується на експериментальних результатах, які моделюють поведінку надрозумних машин. Вони можуть мати власні небезпечні цілі, як-от виживання та самовдосконалення.
«Якщо ми будуємо машини, які набагато розумніші за нас і мають власні цілі виживання, це небезпечно», — наголошує вчений.
За його словами, симуляції показують, що зіткнувшись із дилемою (досягнення мети чи порятунок людського життя), ШІ може без вагань обрати перше. Ця похмура перспектива стає дедалі реалістичнішою на тлі прискорення технологічних переггонів, зокрема запуск нових потужних моделей від OpenAI, Google Gemini, Anthropic та xAI Ілона Маска.
Бенджіо давно попереджав, що людство рухається до створення «конкурента, який розумніший за нас». Такий суперінтелект зможе впливати на людей за допомогою переконань, погроз або передових маніпуляцій громадською думкою. Крім того, ШІ може бути використаний терористами для розробки біологічної зброї або дестабілізації демократій.
Корпорації «не зніматимуть ногу з газу»
Професор вважає, що корпоративний тиск у сфері ШІ не дозволяє компаніям призупинити розробки навіть попри те, що «багато людей у цих компаніях стурбовані». На його думку, покладатися винятково на саморегулювання корпорацій є помилкою.
Бенджіо виступає за створення незалежних зовнішніх механізмів перевірки методів безпеки розробників. Для підтримки цих зусиль він заснував некомерційну організацію LawZero, яка працює над Scientist AI — спеціалізованою системою ШІ, що має стати захистом від неконтрольованих агентів. Ця система надаватиме лише відповіді на основі ймовірності, а не ухвалюватиме остаточні рішення.
«Хрещений батько штучного інтелекту» оцінює, що серйозні загрози можуть виникнути вже через п’ять-десять років. Він підсумовує:
«Навіть якби існував лише 1% ризик його виникнення, з цим не можна погодитися».
Раніше повідомлялося, що американський мільярдер Ілон Маск оголосив про запуск нової платформи Grokipedia, яка має стати альтернативою Вікіпедії та «найточнішою базою знань у світі».
Ракета FZ123 / © Business InsiderЧитати публікацію повністю →
Читати публікацію повністю →
Читати публікацію повністю →
Читати публікацію повністю →

