Наскільки етичними можуть бути роботи?

В есе «Хоровод» (1942 р.) американський письменник-фантаст Айзек Азімов сформулював три правила поведінки роботів: 1. робот не повинен шкодити людині – ні завдавати прямої шкоди, ні допускати шкоду через бездіяльність; 2. робот повинен виконувати усі накази людини, крім тих, які суперечать першому правилу; 3. робот повинен робити усе для продовження свого існування, якщо це не суперечить першому чи другому правилу.

 

Через 70 років ці правила знову стали актуальні й більше не належать до наукової фантастики. У наші дні роботи стали настільки автономними, що вчені всерйоз займаються розробкою програм, які можна назвати "етичним кодексом" поведінки робота. Зокрема, конференція, присвячена безпілотним автомобілям, яка відбулась в травні цього року в Інституті Брукінгс (США), переросла в дискусію про те, як вони повинні поводитись у кризових ситуаціях. Чи повинен автомобіль різко загальмувати, щоб уникнути аварії, якщо це зумовить зіткнення автомобілів позаду? Як він повинен чинити, якщо доведеться обирати між тим, щоб збити дитину і врізатись в натовп людей на узбіччі? Як, отже, має діяти робот, якщо є два варіанти поведінки, обоє з яких погані?

 

Вже дуже скоро схожі дилеми прийдеться вирішувати не тільки автомобілям, але й медичним пристроям, військовим дронам та іншим машинам здатним як допомагати, так і шкодити людям. Дослідники переконані: ефективне запровадження робототехніки в суспільство залежатиме від того, наскільки можна буде запрограмувати їхню поведінку, щоб вона була максимально безпечною, відповідала соціальним нормам та заохочувала довіру. За словами Марчелло Ґуаріні, філософа з Віндзорського університету (Канада), сьогодні ще «потрібний серйозний прогрес, аби визначити основні чинники, які потрібні для того, щоб роботи могли приймати рішення в етичних ситуаціях».  

 

Основна проблема полягає в тому, який тип штучного інтелекту та яка його кількість необхідні, аби машина могла приймати подібні рішення, та як перекласти усе це на мову програмування. Розв’язуючи це питання, програмісти та робототехніки працюють пліч-о-пліч з етиками і філософами.

 

В одному з експериментів іграшковий робот на ім’я Nao нагадував людям, що їм час приймати ліки. «На перший погляд, усе просто», – каже Сюзан Лей Андерсон, філософ з Університету Коннектикута у м. Стемфорд. Вона брала участь у створенні алгоритму для Nao разом зі своїм чоловіком – Майклом Андерсоном, програмістом з Університету Гартфорда в Коннектикуті. «Але як робот має чинити, коли його хазяїн відмовляється приймати ліки? Якщо він дозволить йому пропустити сеанс, це може нашкодити людині. Але якщо настоюватиме на прийнятті ліків, то посягатиме на її свободу».

 

Щоб навчити Nao справлятися з такими дилемами, Сюзан та Майкл Андерсони внесли у його пам’ять випадки, у яких біоетики дійшли згоди щодо співвідношення шкоди, користі та свободи пацієнта. Надалі їх згрупували класифікували та створили шаблони поведінки, якими робот керується у різних ситуаціях.

 

Важлива складова експерименту – здатність робота «навчатись»: усі його рішення відкладаються у пам’яті, модифікуючи існуючі шаблони. Тож що більше рішень приймає машина, то ефективнішою вона стає. Але багато хто побоюється, що за переваги потрібно платити надто дорогу ціну. Як пояснює філософ Джеррі Каплан, викладач етики зі Стенфордського університету, «у вас немає змоги дізнатись, як робот, що сам “навчається”, вирішує, що прийнятне з етичного погляду, а що – ні».

 

Вирішення цієї проблеми – внести у програму робота незмінні алгоритми, аніж дозволити йому створювати власні. Але при цьому йому потрібна ключова властивість – вміння передбачати наслідки своїх дій.

 

З цього погляду цікавим є експеримент, який здійснив інженер з Брістольської лабораторії робототехніки Ален Вінфілд. А. Вінфілд працював з кількома  роботами розміром із шайбу на гладкій поверхні. Кількох роботів він назвав «Л-роботами» («Л» від «люди»), а одного – «А-роботом» («А» означає «Азімов»). У пам’ять «А-робота» Вінфілд вніс алгоритми, схожі на перше правило Айзека Азімова: він повинен рятувати «Л-роботів», якщо ті можуть впасти в яму, заслонивши їм рух.

 

Вчений хотів дізнатись, що робитиме «А-робот», якщо два «Л-роботи» можуть впасти в яму одночасно. Результати виявились наступними: якщо між положенням «людей» і «А-робота» існує хоча б мінімальна різниця, він рятує того, який ближчий до нього. Бувало, що він встигав рятувати обох. Але майже у половині випадків програма давала збій, і «А-робот» ставав безпорадним. Як наслідок, обоє «людей» гинули, хоча кожного поокремо він міг врятувати.

 

Прихильники «гри за правилами» кажуть, що підхід незмінних алгоритмів має важливу перевагу перед підходом «навчання»: завжди ясно, як себе поведе машина і чому вона зробить той чи інший вибір. Це дуже важливо передусім для військових. «Останнє, що ви захочите, так це щоб дрон вирішував моральні дилеми посеред важливої військової місії. Якщо він опиниться в ситуації вибору - рятувати пораненого солдата чи знищувати ворога, - ви мусите знати наперед, що він зробить», –  каже Рональд Аркін, інженер з Технологічного інституту Джорджії у м. Атланта.

 

Американські військові вже встигли протестувати комп’ютерну програму – симуляцію озброєного ракетами безпілотника, – яка мала знищувати ворожі цілі, але при цьому уникати зайвих жертв серед цивільного населення. Алгоритми програми зважували «за» і «проти» у різних ситуаціях: близькість цивільних мешканців, чисельність ворога, наявність мирних об’єктів (будинків, госпіталів тощо). Більшість людей переконані: питання життя і смерті не можна дозволити вирішувати машинам, але, на думку Р. Аркіна, у деяких ситуаціях вони краще дають собі раду, ніж люди, адже їх можна запрограмувати не порушувати правил війни.

 

Одна з ключових етичних дилем для роботів – це т. зв. «проблема трамвая». Уявіть собі некерований трамвай, який мчить на п’ятьох людей, прив’язаних до рейок. Ви можете врятувати цих людей, якщо натисните на важіль, що спрямує трамвай на запасну колію, але там він зіб’є випадкового свідка. В іншому варіанті єдиний спосіб зупинити трамвай – скинути цього свідка на рейки.  

 

Більшість людей відповідає, що готові натиснути на важіль, але б не наважились убити людину. Філософам цей феномен відомий, як принцип подвійного ефекту. Ще середньовічні схоласти доводили, що немає етичного виправдання цілеспрямовано нанесеній шкоді, навіть якщо її метою є добро (як у випадку зі скиданням людини на рейки), але вона може бути морально прийнятною, коли постає як наслідок вчиненого добра (як у випадку з натисненням важіля).  

 

Це вибудовує складну лінію аналізу для програми робота. Передусім вона повинна побачити дві картини майбутнього – ту, в якій трамвай вбиває п’ятьох людей, і ту, де він збиває одну. Згодом програма мусить визначити, чи дія, необхідна для порятунку п’ятьох, недозволена, оскільки постає зі спричинення шкоди, чи дозволена, адже шкода – це побічний ефект добра. Крім того, програма повинна також передбачити наслідки своєї бездіяльності.

 

Обидва сценарії етичного програмування роботів – «модель навчання» і модель «гри за правилами» – мають свої плюси і мінуси. Дослідники, однак, схиляються до думки, що роботи, прив’язані до правил, будуть переконливіші для громадськості. «Люди боятимуться  роботів, якщо не знатимуть, що вони можуть зробити», – каже Майкл Фішер, програміст з Ліверпульського університету. А втім, машини, що навчаються, можуть бути більш гнучкими та корисними. Найкращий варіант полягає у поєднанні двох підходів. «Етика робототехніки чимось нагадує психотерапію, у якій не використовують тільки одну теорію», – стверджує Фішер.  

 

Ера роботів стрімко наближається, і тому морально-етичне врегулювання їхньої поведінки стає дедалі актуальнішим. Вже сьогодні безпілотні автомобілі від Google їздять у деяких районах Каліфорнії. Починаючи з минулого місяця, пустелею Невади стали курсувати безпілотні вантажівки німецького концерну «Даймлер». Інженери думають над тим, як їх запрограмувати, аби вони і дотримувались правил дорожнього руху, і адаптувались до ситуацій на дорогах. Такі автомобілі мають переваги над людьми: наприклад, вони можуть тривалий час зосереджуватись на кермуванні, а також блискавично загальмувати, – каже Бернгард Вайдеман, спікер компанії Даймлер в Штуттгарті. За його словами, тією мірою, як наближається ера роботів, у них потрібно закладати речі, які природніші для людей, аніж для машин. 

 

Boer Deng

Machine ethics: The robot’s dilemma

Nature, 1/07/2015

Зреферував Євген Ланюк

02.07.2015