Наскільки реальні науково-фантастичні сценарії про неконтрольований штучний інтелект, який шкодить людині? На думку вчених у сфері комп’ютерних наук, встежити за самостійною суперрозумною системою штучного інтелекту справді може виявитися нереально. Навіть спеціальні захисні алгоритми навряд чи зможуть впоратися з цим завданням – з технічних причин.
Зображення: Andrea Danti/ thinkstock.
Штучний інтелект (ШІ) розвивається шаленими темпами. Завдяки нейронним мережам та адаптивним алгоритмам системи ШІ вже керують автономними машинами, діагностують недуги, розшифровують складні структури протеїнів. Штучний інтелект вже сьогодні опанував велоспорт, покер і стратегічні ігри – частково він перевершує людські досягнення у цих сферах. Водночас рішення машини подекуди виглядають менш об’єктивними, ніж можна було б очікувати.
Тож як далеко зайде розвиток: чи колись з’явиться такий ШІ, що перевершить людину? Приєднана до інтернету система матиме доступ до всіх даних людства, вона зможе замінити всі наявні програми і контролювати всі машини, підключені до мережі. Чи вона лікуватиме рак, запровадить свободу в усьому світі та допоможе уникнути кліматичної катастрофи? Чи навпаки – знищить людства та забере собі Землю?
«Суперрозумна машина, що контролює світ, звучить як наукова фантастика, – сказав співатор дослідження Мануель Цебріан (Manuel Cebrian) з Інституту досліджень освіти імені Макса Планка. – Але вже сьогодні існують машини, що самостійно виконують важливі завдання – і при цьому люди, які їх програмують, не розуміють повною мірою, як вони цього навчилися. Тож постає питання, чи машини колись стануть неконтрольованими та небезпечними для людства».
Дискусії на цю тему пов’язують також із питанням автономної зброї, що зможе вбивати людей лише на підставі власного рішення або починати війну ще до того, як люди втрутяться.
Чи суперінтелект можна буде контролювати, теоретично перевірили вчені на чолі з провідним автором Мануелем Альфонсекою (Manuel Alfonseca) з Автономного університету Мадрида. Існує два основні підходи до контролю цифрового суперінтелекту.
Перший передбачає цільове обмеження ресурсів машини – наприклад, від’єднання її від інтернету та інших приладів, позбавивши можливості контактувати зі зовнішнім світом. Але внаслідок цього суттєво постраждають можливості суперрозумної машини. Вона не зможе розв’язувати великі проблеми людства.
Інша опція полягає в тому, щоб мотивувати ШІ переслідувати лише ті цілі, які відповідають інтересам людини – зокрема програмуючи машинам етичні правила. Відомий приклад таких правил – три робозакони Айзека Азімова. Вони передбачають: 1) робот не може нашкодити людині; 2) робот повинен коритися людині, крім тих випадків, коли це суперечить правилу 1; 3) роботи повинні захищатися, крім тих випадків, коли це суперечить першому і другому правилам.
Але проблема ось у чому: для деяких алгоритмів ці правила годяться – але не для адаптивного суперрозумного ШІ, здатного до самонавчання. «Адже такий суперінтелект може мобілізувати різні ресурси, щоб досягнути цілі, недосяжні для людини, тобто й неконтрольовані для неї», – пояснили вчені.
Проблему практично проілюстрували Альфонсека та його команда: вони розробили теоретичний алгоритм, завданням якого було перевіряти, чи суперінтелект не нашкодить людині за жодних умов. Для цього алгоритм повинен був спочатку зрозуміти поведінку ШІ та в пробному циклі виявити, чи його дії можуть бути шкідливими. Якщо так, інша програма зупиняла штучний інтелект.
Але на практиці цей принцип наткнувся на свої межі: «Якщо розбити проблему на прості основні правила теоретичної інформатики, виявиться: алгоритм, що наказує ШІ не знищувати світ, може ненавмисно зупинити власні процеси, – пояснив колега Цебріана Іяд Раван (Iyad Rahwan). – Тож цей алгоритм, по суті, даремний».
Небажані наслідки, коли програмуєш суперрозумні машини рятувати світ: "За підрахунками ШІ, найкоротший шлях для мінімалізації нещастя – винищення людства". Зображення: Iyad Rahwan.
На основі своїх обрахунків науковці дійшли висновку, що неможливо запрограмувати алгоритм у такий спосіб, щоб той розпізнавав можливість ШІ нашкодити світові й при цьому працював. «Ідея використання однієї системи ШІ для втримування іншої на рівні нульового ризику обмежена математикою», – пояснили вчені.
А ще ми, ймовірно, не зразу зрозуміємо, що певна машина стала суперрозумною. Адже те, чи штучний інтелект перевершує людський, неможливо з’ясувати на основі сучасних даних.
Nadja Podbregar
Wäre eine digitale Superintelligenz kontrollierbar?
Journal of Artificial Intelligence Research, 2021; doi: 10.1613/jair.1.12202
Max-Planck-Institut für Bildungsforschung, Berlin, 22/01/2021
Зрефферувала С. К.
23.01.2021