Новий ШІ буде ще більше схожий на людину: експерт пояснив, у чому ризики
Новий ШІ буде ще більше схожий на людину: експерт пояснив, у чому ризики

Новий ШІ буде ще більше схожий на людину: експерт пояснив, у чому ризики

ШІ тепер є у величезній кількості смартфонів, проте експерти вважають, що технологію можна використовувати для обману простих користувачів.

Чат-боти на основі штучного інтелекту (ШІ) незабаром стануть настільки хорошими, що їх буде важко відрізнити від людей. Однак у цієї технології є ризики, пише The Sun.

Один з провідних експертів з кібербезпеки Роджер Граймс розповів, що, чат-боти, такі як ChatGPT від OpenAI або Gemini від Google, можуть значно полегшити виконання нудних завдань. Компанії впроваджують їх для вирішення простих (а іноді й складних) проблем підтримки клієнтів.

Частиною цього є створення чат-ботів на основі штучного інтелекту, які говоритимуть більш природно, як людина, і відрізнити їх від реальних людей буде великою проблемою.

Багато експертів попереджають про небезпеки, які несе в собі передовий штучний інтелект, і про те, як кіберзлочинці можуть використовувати його для обману потенційних жертв.

Однак Роджер сказав, що, на його думку, той факт, що чат-боти стають дедалі більше схожими на людей, загалом є позитивним явищем. Крім того, у більшості смартфонів тепер є вбудовані елементи штучного інтелекту, а такі сервіси, як Google, видають відповіді навіть під час виконання простих пошукових запитів в інтернеті.

Щодо небезпек, пов'язаних з обманом і ШІ, йдеться про ризики, починаючи з діпфейків і закінчуючи кібератаками, в яких злочинці використовують ШІ. Крім того, відомо, що чат-боти "галюцинують" і видають абсолютно неправдиву інформацію. Цих помилок не допустила б людина.

Раніше ми писали про ChatGPT у голові: у мозковий імплант інтегрували ШІ від OpenAI. У компанії Synchron стверджують, що нова функція дає змогу людям із важким паралічем швидше відповідати на повідомлення, використовуючи лише силу думки.

Джерело матеріала
loader
loader