Загроза чи прорив? ШІ від Маска звинувачують в антисемітизмі, а Пентагон вже бере його на озброєння
Загроза чи прорив? ШІ від Маска звинувачують в антисемітизмі, а Пентагон вже бере його на озброєння

Загроза чи прорив? ШІ від Маска звинувачують в антисемітизмі, а Пентагон вже бере його на озброєння

В той же час Grok почав активно писати проукраїнські відповіді користувачам

Штучний інтелект Grok, створений компанією Ілона Маска xAI, опинився в центрі міжнародного скандалу через низку антисемітських, образливих і політично токсичних висловлювань. В ЄС це викликало різку реакцію: Єврокомісія ініціювала технічну зустріч із представниками X (колишній Twitter), а Польща навіть пригрозила забороною сервісу на своїй території.

"Телеграф" зібрав інформацію про скандали, пов’язані із чат-ботом та з’ясував, чи використовують українські військові подібні системи штучного інтелекту.

Що відомо про антисемітський скандал

Підставою для резонансу стали коментарі Grok, які містили похвалу на адресу Адольфа Гітлера, звинувачення на адресу євреїв, а також грубі образи польського прем’єра Дональда Туска, якого бот назвав "чортовим зрадником" і "рудою повією". У кількох відповідях Grok називав себе MechaHitler і міркував про "антибіле" насильство, демонструючи риторику, властиву ультраправим змовникам.

Після скарг користувачів компанія xAI видалила скандальні публікації, заявивши, що вони не пов’язані з "ядром" моделі. Але подібні тексти могли з’явитися саме тому, що нова версія Grok була навмисно перепрограмована з урахуванням політичної некоректності, яку Маск називає "боротьбою з упередженістю медіа".

Grok уже не вперше фігурує в подібних інцидентах. Раніше бот неодноразово відповідав на запити тезами про вигаданий "геноцид білих" у ПАР, а в червні — помилково інтерпретував події політичного насильства 2016 року. Сам Ілон Маск у відповідь заявляв, що модель "копіює старі медіа" і потребує доопрацювання.

Відповідь Grok в X

Гендиректорка X Лінда Яккаріно подала у відставку

Генеральна директорка соціальної мережі X Лінда Яккаріно оголосила про свою відставку після двох років роботи в компанії. Її рішення збіглося в часі зі скандалом навколо чат-бота Grok, що спричинив хвилю критики через антисемітські висловлювання.

Як повідомляє CNN, офіційна причина звільнення Яккаріно не названа. Однак її відставка сталася наступного дня після того, як Grok, створений компанією xAI, почав транслювати неприйнятні заяви на платформі X. Цей інцидент загострив суспільну та політичну увагу до роботи сервісу. У своєму прощальному дописі Яккаріно подякувала Ілону Маску за довіру й можливість трансформувати X у "додаток для всього". Маск у відповідь написав лише: "Дякую за ваш внесок".

Лінда Яккаріно

Нагадаємо, раніше Маск передав X під управління компанії xAI, що займається розвитком штучного інтелекту, фактично об’єднавши обидві структури. Це викликало запитання щодо подальшої ролі Лінди Яккаріно в оновленій моделі керування.

Grok 3 — потенційна загроза чи технологічний прорив? Що приховують розробники

Попри заявлену нейтральність і відкритість чат-боту цей ШІ викликає занепокоєння через політичні упередження, небезпечний контент і сумнівні етичні стандарти.

Про це повідомили автори Youtube-каналу "AI Uncovered". Зокрема, користувачі помітили непослідовність у політичній нейтральності: хоча Grok мав бути "анти-вок", у відповідях домінують ліві наративи.

Також AI генерує контроверсійний та потенційно шкідливий контент, у т.ч. надаючи поради, що можуть бути небезпечними. Образи лідерів, цензура згадок про Трампа і Маска, відсутність вікових обмежень для доступу до 18+ режимів — усе це створює серйозні питання щодо безпеки користувачів, зокрема дітей.

Окремо варто згадати етичні й юридичні ризики, пов'язані з генерацією зображень — зокрема deepfake-фото, расистські або порнографічні зображення, що вільно поширюються без належної модерації.

Попри ризики, Пентагон почне використовувати Grok

Оборонне відомство США розпочинає співпрацю з Grok — чат-ботом на базі штучного інтелекту, розробленим стартапом Ілона Маска xAI. Нову ініціативу, що отримала назву Grok for Government, представлено як набір рішень для використання урядовими структурами США, включно з національною безпекою, фундаментальною наукою та охороною здоров’я.

Контракт, максимальна вартість якого може сягнути $200 мільйонів, передбачає створення індивідуалізованих моделей для стратегічних потреб держави.

Як штучний інтелект допомагає Україні у війні: від виявлення цілей до боротьби зі зрадниками

Штучний інтелект став невіддільною частиною української системи безпеки під час повномасштабної війни з Росією. Як з’ясувало британське видання The Economist, Україна застосовує ШІ в кількох стратегічно важливих напрямах. Один із них — виявлення ворожих цілей: українські аналітики обробляють величезні масиви відкритої інформації (зображення, відео, дописи в соцмережах), щоб через ШІ-моделі ідентифікувати потенційне розташування російської техніки та військ. Щодня таким чином виявляється до 5 пріоритетних цілей, які передаються ЗСУ.

Ще одна сфера — інформаційна розвідка й OSINT-аналіз. Наприклад, платформа SemanticForce допомагає ідентифікувати деморалізовані підрозділи окупаційних військ, де не вистачає постачання чи спостерігається паніка. Зокрема, моделі аналізують не лише тексти, а й поведінкові сигнали з фото — від поганого одягу до ознак виснаження.

ШІ також залучають до виявлення колаборантів і шпигунів. Контррозвідка, зокрема СБУ, використовує алгоритми на базі ПЗ Palantir, щоб виявляти потенційно лояльних до РФ громадян на основі цифрових слідів: геолокацій, банківських транзакцій, дзвінків, соцзв’язків. Ці інструменти допомагають визначати "схильних до зради" осіб із високим ризиком.

Окремо згадується так звана система "Конструктор" — аналітична надбудова при РНБО, яка агрегує всі доступні дані: статистику, переміщення, телеком, ринок енергії, військову логістику. Вона використовується для моделювання стратегічних сценаріїв, мобілізаційних планів і оцінки критичних ризиків. За словами колишнього секретаря РНБО Олексія Данілова, лише до 2024 року президент Володимир Зеленський отримував її аналітичні зведення понад 130 разів.

Попри успіхи, експерти попереджають і про ризики — надмірну віру в ШІ, переоцінку його точності й потенційне витіснення людських аналітиків із процесів ухвалення рішень. Україна стала однією з перших країн, яка випробовує подібну технологічну інтеграцію під час війни у реальному часі.

"Системного використання ШІ в оборонному секторі поки немає" — експерт

Колишній співробітник СБУ, військовий експерт Іван Ступак у коментарі "Телеграфу" зазначив, що наразі в Україні штучний інтелект не застосовується системно в оборонній сфері. За його словами, окремі випадки використання можливі на індивідуальному рівні, однак це не є масштабною або санкціонованою державною практикою.

Іван Ступак

"Щоб штучний інтелект працював ефективно, його треба "нагодувати" конкретними даними. Але тут виникає інше питання — які саме дані? Частина з них може становити державну таємницю. А хто тоді отримає до них доступ? Тут дуже багато нюансів", — пояснює експерт. Він також зауважив, що на сьогодні українські структури радше обережно ставляться до повної довіри до ШІ: "Прогнозування наслідків складних подій — це поки що не той рівень, де штучний інтелект можна вважати надійним. Ми просто хочемо перекласти відповідальність — як у випадку з візитом до ворожки".

Нагадаємо, раніше "Телеграф" писав, що користувачі соціальних мереж звернули увагу на промовисту деталь у зовнішньому вигляді прессекретарки Дональда Трампа Керолайн Левітт. У день, коли вона публічно заявила про відсутність так званого "списку клієнтів" Джеффрі Епштейна, на її шиї не було звичного хрестика, який вона зазвичай носить.

Теги за темою
Україна США Пентагон
Джерело матеріала
loader
loader