Чого не вміє штучний інтелект: людські навички, за якими "стоїть майбутнє"
Чого не вміє штучний інтелект: людські навички, за якими "стоїть майбутнє"

Чого не вміє штучний інтелект: людські навички, за якими "стоїть майбутнє"

Сьогодні ШІ - це наші "нові місячні перегони". Поки компанії навперебій інвестують у технології, працівники готуються до удару. Згідно з нещодавнім дослідженням Pew, американські працівники більше переймаються впливом ШІ на їхню роботу, аніж сподіваються на нього. Космічна наука, як і ядерна наука та будь-яка інша технологія, не має "власної совісті". Чи буде вона служити добру чи злу, залежить від людини, пише Forbes.

За даними Всесвітнього економічного форуму (WEF), дві третини роботодавців планують наймати співробітників з навичками роботи з ШІ, але 40% очікують скорочення штатів через автоматизацію. WEF прогнозує, що в найближчі п'ять років зникнуть 90 мільйонів робочих місць по всьому світу. Буде ШІ силою добра чи зла, залежить насамперед від людей. Людство має залишатися головним в ухваленні рішень, зберігати моральну перевагу і не дозволяти технологіям "заходити занадто далеко". А зробити це можна, тільки зміцнюючи людські навички.

Критичне мислення - детектор "нісенітниці"

Один учитель поставив перед собою єдину мету - не просто навчити учнів фактів, а розвинути в них "детектор нісенітниці". Він хотів, щоб вони ставили запитання, аналізували, не погоджувалися з поверхневими відповідями. Він виховував у них вроджений скептицизм і жагу до істини.

Ніколи раніше ця навичка не була такою необхідною. ШІ створює інформацію з неймовірною швидкістю - але без посилань, логіки чи відповідальності. Всесвітній економічний форум назвав дезінформацію, згенеровану АІ, головним глобальним ризиком на найближчі два роки. Ба більше, дослідження Microsoft і Carnegie Mellon показує, що довіра до ШІ знижує наші власні критичні здібності.

Етичне судження

ШІ можна налаштувати на відповідність людським цінностям. Але це буде лише питанням програмування. У ШІ немає нейтральності - штучний інтелект вбирає упередженості, помилки і нерівність, закладені в даних, на яких навчається.

ШІ вже використовується на шкоду: діпфейки, шахрайство, дезінформація. Але навіть ШІ з благими намірами може призвести до катастрофічних наслідків. Єдиний захист - етичне судження людини, яка може втрутитися, виправити і засумніватися в рішеннях ШІ, перш ніж вони стануть незворотними.

Емпатія

ШІ дедалі частіше використовується для відбору кандидатів під час найму, в HR-процесах і навіть на нижчих рівнях управління. Наслідки не завжди справедливі: автоматизація може посилити соціальну нерівність, коли багаті отримують увагу людей, а бідні - тільки чат-ботів.

Що більше ми автоматизуємо процеси, то вищий ризик втрати людяності. Адже рішення, що впливають на долі мільйонів людей, дедалі частіше ухвалює нечутливий алгоритм, а не людина.

Нові технології можуть вийти з-під контролю, якщо ми не будемо їх стримувати. Ми не повинні змагатися зі ШІ. Ми повинні вести його за собою.

Джерело матеріала
loader
loader