Що зробити, щоб людство не закінчило в матриці?

Штучний інтелект треба тримати під контролем. Лист із таким закликом підписали в т.ч. Ілон Маск, Стівен Гокінґ і Макс Теґмарк. Що треба зробити, щоб уникнути світу, в якому нами заволодіють машини?

 

 

Чи людство стане перед такою проблемою? Це питання пролунало від одного з журналістів під час конференції, організованої у Варшаві півроку тому. Вона мала промувати найбільшу на світі електронну виставку в Лас-Вегас.

 

— Йдеться про те, чи роботи збунтуються і зроблять щось зле?  — допитувався Ґері Шапіро, шеф товариства американських продуцентів електроніки. Його відповідь була коротка: "Ні".

 

Не всі, однак, є такі впевнені. До лідерів тих, що сумніваються, належать в т.ч. Макс Теґмарк, професор МІТ та ікона космології, а також Яаан Таллінн, співзасновник Скайпу. Обидва минулого року заклали Future of Life Insitute, дослідницьку організацію, що займається найбільшими викликами, посталих перед людством. У складі радників опинилися такі постаті як Ілон Маск чи Стівен Гокінґ. Власне на сайті FLI минулої неділю розміщено лист, під яким підписалися фахівці з штучного інтелекту з Ґуґлу, Майкрософту і багатьох визнаних наукових установ. Авторами документу є Даніель Дьюї, фахівець інтелектуальних машин з Берклі, його колега за фахом і вузом Стюарт Дж. Расел, а також, очевидно, сам Теґмарк. Звідки ж беруться їх тривоги?

 

Перспектива Теґмарка

 

Шапіро не бачить проблеми в штучному інтелекті, бо більшість життя провів, працюючи як менеджер. Приймає швидкі рішення і є практичний. Чи найближчими роками з'їдять нас наші власні телефони? Ні. Чи комп'ютери прокинуться враз, здобуваючи зловісну свідомість? Ні. Справу закрито.

 

Теґмарк дивиться на це з іншої перспективи. Перспективи космологічної, обсягом в мільйони, навіть мільярди років. Виклав її 15 жовтня 2011 року, виголошуючи промову на присвяченій темі штучного інтелекту конференції в Нью-Йорку.

 

— Тішуся, коли в черговому місці ми не знаходимо слідів життя. Це означає, що його виникнення є дуже рідкісним феноменом, а нам все-таки вдалось — доводив він.

 

— Оскільки жодні косміти до сих пір з нами не сконтактувались, в якомусь місці мусить існувати нездоланна перешкода. Тільки де вона? — питав він. Вказав на кілька можливостей. Проблема може бути у виникненні життя на загал, в стрибку від будь-якого життя до появи інтелекту або в комунікаціях і міжзоряних подорожах. — Останній варіант песимістичний. Приймаючи його, ми віримо у всесвіт повний розумних цивілізацій, з яких всі законами фізики ув'язнені на своїх власних планетах і не можуть навіть з собою порозумітися. Я, однак, є оптимістом, вважаю, що цю гігантську перешкоду ми вже маємо позаду — стверджував він.

 

На його думку людство є єдиною розумною цивілізацією у всесвіті. Свою тезу обґрунтовує засновком, що виникнення розумного життя є подією настільки неймовірною, що з найближчим розумом статистично нас розділяє дистанція, більша за розміри всесвіту. Тому ми є самі, і всесвіт стоїть перед нами відкритий, обіцяючи велике майбутнє. — Якщо ми самі нічого не споганимо — підкреслював він. Під "споганеням чогось" Теґмарк розуміє між іншим і створення машин, які нами заволодіють. Тому створив FLI, а також документ, котрий перераховує, що робити, щоб штучний розум певного дня не кинувся нам до горла.

 

Перевір два рази

 

Лист має два основних розділи, що охоплюють виклики коротко- і довготермінові. Кожна з них ділиться на чотири частини, що стосуються відповідно: верифікації будови системи, питання чи дана система відповідна цілям, закладених нами, безпеки, а також контролю над штучним інтелектом.

 

Під верифікацію будови системи автори документу розуміють, чи система має конструктивні помилки,котрі спотворюють його функціонування. Проектуючи програмне забезпечення, це можна доволі легко перевірити, бо комп'ютерні програми функціонують в обмежених, пpогнозованих середовищах, відомих своїм творцям (напр. операційних системах).

 

З штучним розумом є однак проблема, бо умови, в яких доведеться цьому розуму працювати, у повній мірі людям-творцям цього розуму не відомі. Особливо, коли йдеться про роботів, що пересуваються в реальному світі, як щораз популярніші автономні авта. Найчастіше в машинах цього типу машинах використовують т. зв. алгоритми самонавчання. Як передбачити, чого вони навчаться в майбутньому? У довшій перспективі разом із зростанням можливостей штучного інтелекту справа стане ще нагальнішою. Чим більше різноманітних даних потраплятиме до цього типу систем, тим важче буде передбачити, які висновки вони з цих даних витягнуть. Тому вже на цьому етапі автори рекомендують розміщувати в них ясні заборони, що унеможливлюють певну діяльність або певні  міркування. На їх думку перш за все треба опрацювати методи, що дозволяють мати впевненість, що машина після навчання робитиме те, що очікуємо від неї. І лише це. Окреслюють  це в твердженні: "Якщо середовище відповідає засновку A, то поведінка штучного інтелекту має відповідати засновку B". На жаль, навіть якщо ми про це будем пам'ятати, все одно все може піти зле.

 

Цифрова моральність

 

Може статись одна з кількох речей. Наші засновки щодо середовища можуть виявитися хибними, тому поведінка системи може не відповідати очікуванням. Система може також поводитися врозріз з очікуваннями в ситуації, коли змінились умови. І третя опція — це помилкове формулювання своїх очікувань від нашого штучного розуму. Стюарт Расел дає приклад в роботі " Artificial Intelligence: A Modem Approach". Уявімо собі розумний пилосос. Пристрій вміє самостійно прибирати і випорожнювати мішок. Якщо, однак ми скажемо йому набрати стільки пороху, скільки лиш можна, то будем вкрай розчаровані. Чому? Бо найпростішим шляхом до мети для пилососа виявиться безперервно випорожнення мішка і заповнювання його знову точно тим самим порохом. Краще пов'язати свої вимоги з чистотою підлоги.

 

Справу можна узагальнити до питання, що насправді є по-нашому добре і корисне, а це означає врахування в проектуванні штучного розуму думки фахівців етики. Позбавлений моральності пилосос ще нікого не жахає, але позбавлений таких правил автономний автомобіль вже буде проблемою. Чи в  ситуації загрози авто повинне ризикнути нашим здоров'ям задля уникнення колосальних матеріальних втрат? Як повинен повестися у виборі між нашим життям а наїздом на групу дітей, що виходять із садочку? Живий водій приймає рішення інстинктивно. Машина буде мусіла приписувати таким ситуаціям математичні цінності. Життя дитини коштуватиме напр. 10 пунктів, життя дорослого — 7, а життя старушка — 5. Лише на цій підставі алгоритм зможе щось вирішити. Але хто осмілиться встановити такі цінності? На думку авторів листа в найближчій перспективі цим повинні зайнятися етики в співпраці з інженерами. А  дальшій перспективі, коли алгоритми, що "вчаться", будуть краще розвинені, можна буде зробити, щоб машина вчилася моральності, так як це роблять люди.

 

Воля існування

 

А як забезпечити штучну інтелект від захоплення його небажаними особами? Ця проблема вже багато разів з'являлася в різних контекстах. Свого часу США збурила авантюра підлітка, що отримав контроль над камерою в ноутбуку своєї подруги з класу (випадково це була колишня Міс-Підліток), щоб підглядати за нею. Справи, однак, можуть прийняти значно гірший поворот, коли ми уявимо собі автономну зброю, напр. дрони, що може приймати самостійні рішення щодо відкриттям вогню на полі бою. Це, на диво, за думкою Теґмарка і його співпрацівників, є найменшою зі всіх проблем. "З криптологічної точки зору час є на стороні захисників, а не атакуючих", читаємо в листі. Майбутні запобіжники стануть ще кращі, і добре використаний штучний розум допоможе їх ще більше вдосконалити. Очевидно до пункту, в якому зіткнеться з іншим штучним розумом. До цього теж потрібно його підготувати і ввести до системи можливість надавати своїм цифровим колегам різні рівні довіри. Так як це роблять люди, спілкуючись з іншими людьми.

 

Найважливішим запобіжником залишиться, однак, можливість людини переймати контроль над роботою штучного інтелекту. В будь-який момент. Нині справа видається очевидною. Автономний автомобіль, натиснувши кнопку, можемо провадити самі — так як можна вимкнути автопілот в літаку. Майбутнє принесе тут більше ускладнень. Коли ми визначимо якусь мету майбутнім дуже потужнім системам штучного розуму, вони зроблять все, щоб її досягти. Це означає і уникання перешкод, які їм це унеможливлять. Однією з очевидних перешкод є перепрограмування або вимикання людьми. "Буде можливе введення обмежень, що забороняють таким системам воювати з пробами їх дезактивації", стверджують автори. Хіба що ті системи стануться мудрими від них.



Jacek Krywko
Co zrobić, by ludzkość nie skończyła w matriksie?
Gazeta Wyborcza, 20.01.15
Переклад О.Д.

 

 

20.01.2015