Кароль Ялоховський

Штучний інтелект нами заволодіє, віщують медіа. Що на те кажуть фахівці?

 

 

Літо 10 673 498 року до н. е. було гарячим, савану гріло сонце, а оскільки фруктові дерева прекрасно вродили, то мотивація спускатися з них і взятися за труд подальшої еволюції була слабкою. Поглиблюючи соціальні зв'язки шляхом взаємного ськання, Мікеланджело, Моцарт, Коперник і Лем почали дискусію на найнасущнішу тоді тему: чи не дасть модуль інфрачервоного розпізнавання обличчя, встановлений в моделі iPhone'a 2017 року, національним урядам знаряддя повного панування? Результат цієї важкої дискусії мав вплинути на рішення щодо участі чи неучасті в розвитку цивілізації.

 

Ця картина підкреслює певну абсурдність наших нинішніх міркувань, пов'язаних з розвитком технології, зокрема штучного інтелекту (AI, Artificial Intelligence). Тема штучного інтелекту має риси ритуального повторення, але останнім часом медіа винятково інтенсивно атакували цією темою — варто згадати хоч би попередження, сформульовані Стівеном Гокінґом, іконою фізики і попкультури, чи Ілоном Маском, бізнесменом з бізнес-планами міжпланетного масштабу. Температуру підвищило і повідомлення про AlphaGo Zero, штучний інтелект з лабораторій DeepMind, який піднявся на чемпіонський рівень гри в ґо, не вивчаючи архівних ігор, не граючи з людиною, а виходячи з первинних правил і навчаючись на власних помилках. Zero не потребує людських знань — Zero відкриває території знань, цілком нам невідомі. Що, наприклад, відкриє з даних прискорювачів елементарних частинок? Або чи дізнається, як перемогти у  виборах за допомогою Твіттера?

 

Зі всього цього інформаційного шуму навколо штучного інтелекту виникає одне принципове питання: чи можна спускатися з цього (символічного) дерева, чи краще не треба? Боятися цього штучного інтелекту чи ні?

 

Боятися, але інакше. Що мається на увазі — про це трохи згодом, але медіа дали хрестоматійний приклад дезінформації. Гокінґ, Маск та інші застерігали, це правда, але не щодо вторгнення роботів-вбивць і не щодо взивання "демона" штучного інтелекту. Правдою натомість є те, що в січні 2015 р., разом з тисячами інших фахівців в царині штучного інтелекту (і не тільки), вони підписали заклик припинити непідконтрольні дослідження, а зосередитися винятково на пошуках штучного інтелекту доброчинного плану. Другий відкритий лист стосувався заборони застосовувати автономну зброю. Чому? Вистачить собі уявити напад сотні дешевих, маленьких (але здатних піднести пістолет) дронів з модулями розпізнавання обличчя (вийнятих хоч би з нового iPhone'a) на конкретних вибраних осіб (наприклад, Раду міністрів або президента). Світова війна відразу.

 

Витримані в тривожному тоні повідомлення були медійним артефактом, побічним ефектом історичної конференції в Пуерто-Рико (січень 2015 р.), присвяченій наслідкам розвитку штучного інтелекту. Її учасниками стали дослідники, підприємці, програмісти, юристи, етики, історики, філософи, а головним організатором — Future of Life Institute (FLI), заснований в 2014 р. Максом Теґмарком, талановитим і метким шведсько-американським фізиком та математиком. FLI є однією з кількох такого плану організацій, мета яких — переконатися, що "життя не перестане існувати і буде настільки чудово, наскільки можливо". Штучний інтелект, річ ясна, відіграє в цьому існуванні засадничу роль. Результат голосування, проведеного серед учасників конференції, був однозначним: вибух штучного інтелекту, тобто досягнення ним рівня людини, настане впродовж кількадесяти найближчих років. Теґмарк присвятив цьому видану в серпні цього року книжку "Life 3.0: Being Human in the Age of Artificial Intelligence" [Життя 3.0: бути людиною в епоху штучного інтелекту]. Описує в ній можливі сценарії майбутніх подій. Як стати учасником отого найвигіднішого сценарію?

 

Беручи до уваги динаміку розвитку досліджень штучного інтелекту, варто прислухатися до порад таких людей, як Ілон Маск, творець PayPal, Tesla, фірми SpaceX, а незабаром — колонізатор Марса. Він також брав участь в конференції в Пуерто-Рико, підписався під листом про автономну зброю. Він же був основним засновником FLI. На відміну від Теґмарка, який утримує сім'ю своїм теоретизуванням, Маск є практиком — 80 відсотків часу проводить з інженерами в лабораторіях або надзираючи виробництво ракет. Щодо штучного інтелекту має конкретну думку: демократизація. Як мантру повторює за політичним філософом Джоном Актоном (1834-1902), що свобода полягає в розподілі влади, а деспотизм — в її концентрації. Технологію і знання на тему штучного інтелекту треба зробити загальнодоступними. Втім, він сам запустив неприбутковий проект OpenAI власне з такою метою в статуті.

 

Тільки колективно створений приязний штучний інтелект має шанс тримати в шорах інтелект made by Велика Корпорація.

 

Вже нині ми заслужили звання суперлюдей, зауважує Маск. Смартфони розширюють наші можливості в спосіб, неймовірний ще десять років тому. Кожна думка глобально поширюється. Але є перешкода: інтерфейс. Наскільки величезною є пропускна спроможність на вході (зір), настільки драстично обмежена вона вправністю пальців і тим, що ми здатні ними наклікати на екрані чи клавіатурі. Перелом настане в момент появи з'єднання комп'ютера з корою головного мозку, що уможливить передавання думки, і не тільки між людськими істотами, а й штучними. Саме про такий глобальний біоінформаційний колектив думає Маск. Демократизація плюс інтерфейс дорівнює добре майбутнє.

 

Очевидно зрозумілим є сумнів, чи не має Маск у цьому проекті власної, не цілком милосердної, аґенди. Він якраз проголосив про бажання вибудувати складну мережу з майже 4,5 тис. супутників, які разом з наземними станціями гарантували би доступ до інтернету кожному, всюди, завжди — з вищими за волоконно-оптичні параметрами. Неможливо — а тим паче протягом виділених Маском кількох років? Варто пам'ятати про ракету Falcon 9, яка тільки за 2017 рік здійснила кільканадцять місій, безпомилково приземляючись і на суші, і на платформі в океані. Коли в 2002 році Маск заснував SpaceX, ані він, ані жоден з прийнятих ним на роботу інженерів майже нічого не знали про будівництво таких пристроїв. Сьогодні він оголошує програму колонізації Сонячної системи, пояснюючи, що свідомий інтелект щезне, якщо ми не дозволимо йому залишити Землю.

 

Теґмарк теж розуміє розвиток цивілізації як довге прощання з блакитною планетою. Просте, біологічне життя у версії 1.0 здатне виживати і розмножуватися. Життя у версії 2.0 вміє самостійно писати власне програмне забезпечення, software, тобто, іншими словами, культуру. Життя у версії 3.0, якому Теґмарк присвячує більшість своїх роздумів, викладених  в книжці, буде здатне проектувати власне hardware, тобто набувати довільної форми. Звільнений від ваги тіла інтелект можна буде посилати зі швидкістю світла в довільний реґіон космосу, аби розростався, брунькувався, започатковував нові осередки свідомості, що живляться енергією зір і чорних дір...

 

Теґмарк посилається на класичні вже футуризми Фрімена Дайсона і Костянтина Ціолковського. Він належить до науковців, котрі переконані, що свідомість є рідкісним і цінним феноменом, який надає космосу сенс, а не навпаки. Замість нарікати на технологію, увійдімо з нею в інтимний контакт, бо тільки вона, якщо зберігати обережність, дозволить життю зберегти себе і квітнути, пише Теґмарк. Перефразовуючи слова фізика: замість боятися майбутнього і судорожно триматися хвостом гілки, як згадані на початку гомініди, почнім думати про майбутнє з надією. Замість говорити про страх, почнім говорити про мету подальшої еволюції.

 

Метою матерії є розсіювати енергію. Метою живої матерії є розмножуватися, відтворювати саму себе. Метою свідомої розумної живої матерії є... Ну, власне, що? Метою штучного інтелекту для гри в шахи є шах-і-мат. Метою штучного інтелекту для медичної діагностики є точний медичний діагноз. Що би було метою універсального штучного інтелекту? Щоб такий інтелект був приязним до нас і нам корисний, пише Теґмарк, ми мусимо впевнитися, що він вивчить наші цілі, визнає їх своїми і буде їх триматися. Тому повторімо питання: Які  наші цілі? В чому сенс життя? І що означає сенс?

 

Мабуть, вперше в історії людства пошук відповіді на питання про кінцевий імператив стає умовою виживання. Нік Бостром, шведський філософ з Оксфордського університету, окреслюєє ці роздуми назвою "філософія з дедлайном". Але як нав'язати штучному інтелекту систему цінностей, з формулюванням якої ми самі маємо проблеми? Можемо, наприклад, звернутися до ще одного прагматичного практика — Стюарта Рассела, британсько-американського співтворця наук про штучний інтелект. Студентам 1,3 тисячі університетів в цілому світі Рассел відомий як співавтор — разом з Пітером Норвіґом, керівником дослідного відділу в Ґуґл — канонічного підручника в цій царині. Рассел згадує слова Норберта Вінера (1894-1964), генія математики і філософії. Він говорив: коли ми хочемо досягти якоїсь мети за допомогою комп'ютера, на внутрішні процеси якого маємо обмежений вплив, то краще переконатися, що задана йому мета є тим, чого дійсно хочемо. Ми уникнемо розчарувань, переконує Рассел, якщо будем дотримуватися трьох принципів. По-перше, штучний інтелект мусить докладати всіх зусиль, щоб діяти відповідно до людської системи цінностей. По-друге, на старті мусить мати невизначеність щодо цієї системи, щоб — по-третє — він мусів сам себе її навчити, спостерігаючи людей. Коротше: йдеться про те, щоб штучний інтелект не мав переконання, що про мотивації людей знає більше, ніж вони самі, і щоб в разі необхідності дозволив себе відімкнути. Це казус, відомий в цій області під назвою: Як зварити каву, будучи мертвим? Робот, що готує каву, може в ім'я заданої йому ідеї (зварити каву) дезактивувати свій вимикач і вирватися з-під контролю. Тому мусить розуміти: якщо його вимкнено, то для блага людства.

 

Проблема гарантувати собі приязнь штучного інтелекту є серйозною і, очевидно, значно складнішою. На щастя, угода про "максимізацію суспільної користі і дотримання етичних аспектів" турбує навіть сторону комерційного молоха. Відкриту платформу створюють в тому числі і Amazon, і Apple, і Facebook, і Google, і IBM, і Microsoft, і DeepMind. Ба, інформаційна та інтелектуальна інтенсифікація щодо перспективи вибуху штучного інтелекту стала настільки сильною, що навіть ООН вирішила створити спеціальне агентство, зі штаб-квартирою в Гаазі, для контролю ситуації в ділянці роботів. Колектив має складатися поки що з двох осіб і одного модуля штучного інтелекту... Це, звичайно, жарт — агентство буде сформоване з трьох людей. Але жарт видається засадничим, бо в справі моніторингу явищ складної, неочевидної природи зауважувати субтельні симптоми загроз (новотвір, змова, аварія системи), розпізнавати непомітні для людини відхилення від статистичних закономірностей штучний інтелект вже є і завжди буде поза конкуренцією. Без нього ми не зможемо дати собі раду з його контролем.

 


Karol Jałochowski
Jak przyrządzić kawę, będąc martwym
Polityka, 1.11.2017

Зреферував О.Д.

 

 

09.11.2017