Про трансформаційну силу штучного інтелекту (ШІ) було зроблено чимало гучних заяв. Але варто прислухатись і до серйозних застережень. Минулого місяця Кейт Кровфорд, головний дослідник у Microsoft Research, застерегла: якщо технологіями зловживатимуть авторитарні режими, то зростаюча потуга ШІ може реалізувати «фашистську мрію».
«Так само, як ми бачимо, що швидкість ШІ зростає стрибковою функцією, відбувається дещо інше: зростання ультранаціоналізму, правого авторитаризму і фашизму», – сказала Кровфорд на тек-конференції SXSW (South by Southwest).
Вона каже, що завдяки ШІ уможливлюється створення величезних реєстрів даних, тарґетування груп населення, зловживання предиктивним поліційним контролем і маніпуляція політичними поглядами.
Стурбованість щодо неправильного використання – іноді навіть ненавмисного – нових потужних технологій висловлює не лише Кровфорд. Марк Волпорт, головний науковий радник британського уряду, застеріг, що бездумне використання ШІ у пов’язаних з людськими нюансованими судженнями сферах, таких як медицина чи право, може спричинитися до руйнівних результатів і підірвати довіру суспільства до технологій.
Хоча ШІ мав потенціал підвищити якість людської думки, він ніс в собі також і ризики плодити шкідливі упередження, даючи при цьому людям фальшиве відчуття об’єктивності. «Машинне навчання може засвоїти всі приховані упередження, що містяться в історії судових вироків та медичного лікування, і виразити це через свої алгоритми», – написав він у статті до inWired.
Як завше, небезпеку значно легше розпізнати, аніж її виправити. Недобросовісні режими ніколи не будуть дотримуватися правил, які обмежують використання ШІ. Але навіть у функціональних правових демократіях важко буде витворити належну відповідь. Максимізація позитивного вкладу, який може внести ШІ, при мінімізації негативних наслідків буде одним із найважчих викликів для державної політики сучасності.
Для початку: технології важко зрозуміти, і їхнє використання часто є неосяжним. Все важче також стає знайти незалежних експертів, які б не були втягнуті в цю галузь або не мали інших конфліктів інтересів.
Гонимі фактично комерційною гонкою озброєнь у цій галузі, великі тек-компанії розхапали багатьох найрозумніших наукових експертів з ШІ. Тому більшість передових досліджень є нині радше приватним, а не в суспільним надбанням.
Деякі провідні тех-компанії — до їх честі — визнали потребу в прозорості, хоча й зі запізненням. Посипався шквал ініціатив щодо заохочення публічних дебатів і досліджень політик на тему ШІ. Ілон Маск, засновник Tesla Motors, допоміг заснувати OpenAI, неприбуткову дослідницьку компанію, яка займається безпечними способами розробки ШІ. Amazon, Facebook, Google DeepMind, IBM, Microsoft та Apple також об’єдналися у Партнерство щодо ШІ (Partnership on AI) для того, щоб ініціювати більше публічних дискусій про застосування цієї технології в реальному світі.
Мустафа Сулейман, співзасновник Google DeepMind і співголова Партнерства, каже, що ШІ може відіграти трансформуючу роль у вирішенні найбільших викликів нашого часу. Але він визнає, що рівень розвитку ШІ випереджає нашу колективну здатність розуміти і контролювати ці системи. Тому провідні компанії, що розробляють ШІ, повинні ставати значно інноваційнішими й проактивнішими в плані самовідповідальності. Заради цього лондонська компанія експериментує з верифікабельними даними для аудиту і незабаром оголосить склад етичної ради, яка ретельно перевірятиме всю діяльність компанії.
Але Сулейман вважає, що наші суспільства мають розробити кращі рамки для того, щоби спрямовувати технології в русло колективного блага. «Нам треба мати контроль за цими системи, щоб вони виконували те, що ми хочемо, коли ми цього хочемо, і щоб вони нас не випереджали», – сказав він в інтерв’ю для подкасту FT Tech Tonic.
Деякі оглядачі вважають, що найкращий спосіб досягти цього – адаптувати наш правовий режим так, щоби забезпечити «пояснювальність» систем ШІ для громадськості. Як принцип це звучить просто, однак може виявитися несамовито складним на практиці.
Мірей Гільдебрандт, професор права і технологій у Вільному університеті Брюсселя, каже, що ми стаємо занадто залежними від «бездумного розуму», який не до кінця розуміємо. Тому, вона арґументує, намір і результат цих алгоритмів необхідно надавати до перевірок і судового опротестування. «Якщо ти не можеш обґрунтовано пояснити рішення своїх систем, тоді не можеш їх продукувати», – каже вона.
Нам треба буде значно більше людського інтелекту, аби відповісти на всі виклики штучного інтелекту.
John Thornhill
Only human intelligence can solve the AI challenge
Financial Times, 17.04.2017
Зреферувала Леся Стахнів.
26.04.2017