Робот вбивця не відчуває ненависті

Машини не будуть ані катувати, ані принижувати. Для цього надалі потребуватимуть Homo sapiens

 

 

На конференції у Буенос-Айресі про штучний розум понад тисяча науковців закликала до заборони застосування автономних роботів як наступальної зброї. Вважають, що бездушні машини не повинні вбивати.

 

Заклик стосувався LAWS (Lethal Autonomous Weapons Systems) – розумної зброї, здатній вибирати цілі і приймати рішення про напад без участі людини. Інспірацією була виголошена у квітні в ООН опінія Стюарта Рассела, фахівця у справі штучного розуму, про принципи стосування такої зброї. У формі відкритого листа під цією опінією підписалися в т.ч. Елон Маск і Стівен Ґокінґ. "Розвиток LAWS наближається до точки, коли роботи будуть самостійно вирішувати питання життя і смерті людей. Стануть настільки дешевими, розповсюдженими і ефективними, що не зможемо перед ними захищатися. Відкриємо нову гонку озброєнь".

 

Рассел, певно, мабуть прогнозує точно. Не згадує, однак, вихідної точки.

 

„Люди вважають, що війни ведуть чоловіки. Помиляються. До армії забирають хлопців у віці 17-18 років. Я бачив одного, який мав шістнадцять. Війни на полі бою ведуть дітей" — писав в спогадах "Солдатська епопея" генерал Омар Бредлі, командувач висадки в Нормандії. Сьогодні до американського Корпусу морської піхоти може вступити неповнолітній. На вишколах елітарного формування Navy Seals зустрічаються сімнадцятилітні. Ось наша вихідна точка. Дитина з карабіном.

 

Рассел, Гокінґ та інші здригаються при думці про робота, який стоїть перед людиною і вирішує, чи натиснути  на спусковий гачок. Так, ніби сьогодні такі рішення приймали одягнені в акуратні мундири джентльмени з принципами.

 

Як реагує наляканий підліток, який в оточеному будинку думає , чи не спорожнити йому магазин просто у встеклий натовп, що біжить на нього? За радників має страх, гормони, місце в усталеній між кумплями ієрархії і уламок секунди на рішення. Ми віримо, що прийме краще рішення, ніж робот?

 

Страх перед LAWS виникає в значній мірі від переконання, що емпатія є джерелом моральності. Не можна дозволити вбивати машині, яка не відрізняє добра від зла. Але моральність, яку вважають належною виключно людині, можна описати математично, звести її до комп'ютерної програми.

 

– LAWS мусить бути цілком прогнозованим. Переслідувати ворога чи захищати власних солдатів? Стріляти чи ні? — говорить Рональд Аркін з Georgia Institute of Technology, який за гроші Пентагону працює над "етичним адміністратором", системою, яка повинна устаткувати дрони етикою. — Наша робота полягає в перекладі міжнародних конвенцій на пакет зобов'язуючих машину інструкцій. Ми симулювали різні варіанти нальоту на ціль. Змінювали густоту оточуючої його цивільної забудови, додавали лікарню і т.д. Дивилися, як система буде поводитися. Йшлося про те, щоб його рішення були якнайгуманіші і сумісніші з правом — розповідає науковець.

 

Комп'ютер поводився як пілоти-люди.

 

Говкінґ і Рассел бояться LAWS на полі бою, бо машина не має людських рефлексів. А ця палиця має два кінці. Роботи стрілятимуть без співчуття, але також не відчуватимуть встеклості, ненависті чи презирства. Не будуть відрубувати військовополоненому руку, коли побачать на ній татуювання. Не будуть знімати телефоном відео з приниженням ворога. Не будуть красти, бо не потребують грошей. Не будуть гвалтувати жінку, бо не потребують сексу. Не будуть катувати і не принижувати, бо не потребують домінування. Якщо буде їм заборонено атакувати цивільних, не будуть цього робити навіть для власного захисту, бо існування не є для них самоцінністю.

 

Люди в екстремальній ситуації швидко відкривають, що доброта, безкорисливість і співчуття не є тими ознаками, що вивели нас на вершину харчового живлення. Машини не мають цієї проблеми. Самі не придумають ані ям з вапном, ані таборів смерті. Для цього надалі потребуватимуть Homo sapiens.

 


Jacek Krywko
Robot zabójca nie czuje nienawiści
Gazeta Wyborcza, 31.07.2015
Переклад О.Д.

31.07.2015