Моральна машина перемагає недосконалу людину

Ретельна перевірка штучного інтелекту повинна кинути виклик уявленню про нашу перевагу.

 

 

Цей рік буде цікавим для X-47B. Новий безпілотний літак, розроблений компанією Northrop Grumman, випробують на американському військовому кораблі, щоб перевірити чи може він робити все, що можуть робити існуючі літаки: безпечно злетіти і приземлитися, підтримувати режим очікування, і всього за 90 секунд "очистити палубу" для наступного літака.

 

Серед існуючих зараз автономних апаратів цей супер-дрон є, мабуть, найбільш передовою машиною, затьмарюючи, можливо, безшоферне ґуґлівське авто. Обидва приклади штучного інтелекту стали стимулом до підписання колективом впливових мислителів, що замислюються над екзистенціальними ризиками для людства, і щойно опублікованого Future of Life Institute (Інститутом Майбутнього життя) відкритого листа про штучний інтелект (ШІ).

 

Підписаний вченими — такими як професор Стівен Гокінґ, а також такими підприємцями ШI як Елон Маск, він застерігає, що ШI так швидко крокує до людиноподібного інтелекту, що ми не повністю усвідомили і зрозуміли його потенціал — як на добре, так і на зле. Разом з обов’язковими настановами для уникнення "потенційних провалів" у листі йдеться про те, що: "системи ШІ повинні робити те, що ми хочемо, щоб вони робили".  Довге звернення запитує, як можуть процвітати громадяни, коли багато робочих місць буде автоматизовано, в тому числі у банківській і фінансовій сфері. Чи майбутнє обіцяє безперервний відпочинок – чи просто безробіття?

 

Лист є на часі, враховуючи те, що технологія випереджає здатність суспільства дати собі з цим раду. Наприклад, хто має нести відповідальність, якщо безшоферне  авто спричиниться до аварію? Це не зовсім зрозуміло, хоча чотири американських штати дали юридичне добро на випробування їх на загальних дорогах. Цього року і Великобританія, виглядає, дасть аналогічний дозвіл. Ясність у правовому полі необхідна для довіри споживачів, від якого залежить майбутнє цієї індустрії.

 

А що, коли некерований автомобіль, для того, щоб уникнути потенційно фатального зіткнення, повинен вибратись на тротуар? Чи повинен він бути інстальований програмою з етики, щоб маючи вибір — переїхати дорослого чи дитину — вибрати дорослого ?

 

Це довгострокові, більш складні питання, пов'язані з ШІ, і радше суспільство, ніж винахідники з Силіконової долини, повинно диктувати, як швидко на них буде знайдено відповідь. Якщо ми збираємось дати роботам мораль, то яка мораль повинна бути закладена в машини? А як щодо саботажу?

 

Ідея моральної машини зачаровує, бо в епоху, коли машини вже роблять багато чого з того, що можуть робити люди — вести автомобіль, керувати літаком, бігати, впізнавати зображення, говорити і навіть перекладати — все ще існують компетенції, такі як моральні міркування, які оминають їх.

 

Дійсно, зі зростанням рівня автоматизації, це упущення може стати саме по собі аморальним. Наприклад, якщо дрони стануть нашими емісарами на полі бою, їм, можливо, доведеться приймати рішення, яке людські оператори не можуть передбачати чи закодувати в програмі. І ці рішення, можуть бути "моральними" рішеннями — яке, наприклад, з двох життів зберегти. Минулого року науковці Брістольської Robotics Laboratory показали, що робот навчений, щоб врятувати людину (насправді іншого робота) від падіння в яму, без проблем міг врятувати одного, але у нього виникали труднощі, коли перед ним було двоє людей, які рухались у напрямку ями. Часом він вовтузився так довго, що не врятував жодного. Робот запрограмований рятувати одне життя — це краще, ніж збитий з пантелику робот, який не може врятувати жодного, правда ж?

 

Отже, штучна мораль видається природнім, хоч контроверсійним, наступним кроком. Нині п'ять університетів, включаючи університет Тафтса і Єль досліджують, чи можна навчити робота відрізняти добро від зла. Але все це відбувається у нормативному вакуумі. Райан Кало, професор права Вашингтонського університету, запропонував Федеральній комісії з проблем роботів [Federal Robotics Commission]  наглядати за розвитком подій.

 

З розвитком і процвітання цієї індустрії, ми повинні мати якісь засоби контролю за поведінкою і діями дослідників — багато з яких працюють в багатих, приватних корпораціях. Але будь-яке дослідження повинно також кинути виклик нашому припущенню про вищість людського фактора. Можливо, ґуґл-водій не зможе інстинктивно уникнути пішохода, але він не засне за кермом. Робот-солдат — обладнаний моральним кодексом, але позбавлений емоцій — ніколи не натисне на спусковий гачок зі страху, у гніві чи панікуючи. Може, більш автоматизованіший світ — дивним чином — буде і більш гуманнішим.

 

 

Автор є журналістом який пише на наукові теми. Її статті регулярно друкуються у Financial Times  


Anjana Ahuja
A moral machine beats a flawed human
Financial Times,  12.01.2015
Зреферував Михайло Мишкало

 

15.01.2015