Владимир Шульга.
Проректор Харьковского национального университета внутренних дел, доктор исторических наук.
Восстание машин или небрежность людей? (укр).
19 августа, 17:58.
Технологічний світ збентежила курйозна (на перший погляд) новина про те, що у США автомобіль Tesla Т-934 зі штучним інтелектом без відома розробників зареєструвався у сервісі таксі та у вільні від випробувань години самостійно заробляв гроші.
Такі дії поліція та суд вбачили незаконними та оштрафували компанію Tesla на $ 5 тисяч.
Хочу підкреслити, що штучний інтелект без втручання людини "вирішив", що і як варто зробити, тобто розрахував алгоритм причинно-наслідкових зв’яків, дій та обрав шлях до створення певного процесу.
Як зазначив головний інженер компанії Роберт Кінг, розробники навчили нейромережу проводити реальних водіїв на дорогах.
А нейромережа сама "збагнула", що таким чином можна заробляти гроші.
Звісно, в цьому є щось фаталістичне.
Адже, знову ж таки на перший погляд, чомусь американська нейромережа не "збагнула", як можна краще та якісніше допомагати людям, а "вирішила" заробляти гроші.
Ось саме це і злякало противників штучного інтелекту.
Мовляв, "р.
Оботи" без відома людей відберуть робочі місця, потім почнуть знищувати людство і все в дусі фільмів про "термінатора".
Проте не все так апокаліптично.
Принаймні з цим штучним інтелектом.
Я, звісно, припускаю, що в розробках закралася якась помилка чи алгоритм спрацював в хибній з точки зору людини логіці.
Переконаний, що заробляння грошей, – то не було метою нейромережі, адже навряд чи розробники закладали в основу алгоритмів – ціннісні характеристики грошових одиниць, сутність накопичення капіталу та способи збагачення.
Швидше за все нейромережа "вирішила", що найбільше користі з неї буде там, де люди найчастіше використовують автомобілі у найрізноманітніших парадигмах.
А заробіток – то просто невід’ємна частина алгоритмів сервісу таксі, від якої штучний інтелект не мав жодного зиску.
В тренде.
Лукашенко "услышал", как НАТО барабанит гусеницами на границе с Беларусью.
Проте є моменти, які справді насторожують.
І це – безконтрольність штучного інтелекту з боку розробників навіть на такому примітивному рівні, як послуги навігації.
Добре, що наразі не йдеться про якусь шкоду для суспільства, чи щось більш жахливе.
Але втрачений контроль – це серйозна помилка.
І, на моє переконання, американським поборникам закону варто було штрафувати розробників ШІ не за незаконне збагачення, а за безвідповідальність чи нехлюйство (якщо у законах США є така рамка).
Знову ж таки – наразі це нехлюйство не призвело до трагедії.
Але будь-яка безконтрольність чи безвідповідальність людини у роботі з будь-якими складними механізмами чи технологіями, – неодмінно призводить до трагічного фіналу.
Чи то на будівництві, чи в цеху, чи за клавіатурою комп’ютера, який керує чимось.
Саме тому, друзі, "страшне повстання машин", – це в першу чергу нехлюйство з боку людей.
Адже у будь-якого, навіть найрозвиненішого штучного інтелекту зі здатністю самонавчання, є творець.
І цей творець – людина.
І обмеження та алгоритми роботи ШІ – також регламентовані людиною, зрештою, як і способи контролю.
Ви ж не говорите про повстання машин, коли ламається пилосос, бо ви перевищили потужність чи заблокували сопло, коли ламається двигун автівки, бо ви залили не те пальне, і так далі.
Людський фактор є основним і вся відповідальність лежатиме саме на людях.
Разом з усім вищезазначеним хочу нагадати, що світові лідери у розробці штучного інтелекту вже погодилися з тим, що жодна нейромережа не замінить людину, а жоден робот не відбере робоче місце у людини там, де потрібен найпотужніший та найкращий комп’ютер всіх часів – людський мозок.
Адже не можна навчити ШІ виконувати завдання, спираючись на два важливих принципи – інтуїцію та творчий підхід.
Тому випадок, з якого починався допис, радше виняток.
І це – не повстання машин, а недбалість у підходах до вирішення питання функціоналу.
Тобто якщо ви не знаєте про те, що впадете , бо пиляєте гілку, на якій сидите, то ви й надалі пилятимете цю гілку.
А потім звинуватите у всьому ту електропилку, якою пиляли, мовляв, дуже швидко відпиляла, і я не встиг приготуватися до падіння.
Подпишись на наш telegram.
Только самое важное и интересное.
Подписаться.
Реклама.
Читайте Segodnya.