Фейки: а ви ще нічого не бачили...

 

Цьогоріч на YouTube з’явилося відео, на якому Франсуаза Арді, французька співачка, пояснювала, чому президент США Дональд Трамп змусив свого прес-секретаря Шона Спайсера збрехати про чисельність натовпу під час інавгурації. Спайсер, за її словами, навів «альтернативні факти» щодо цього. І все б нічого, але Франсуаза Арді, якій зараз 73, має вигляд 20-річної, а голос, що виходить з її уст, належить радниці Трампа Келліенн Конвей.

 

Відео під назвою «Альтернативне обличчя v. 1.1» завантажив німецький художник Маріо Клінґман. Цифровий привид Франсуази Арді у ньому озвучує інтерв’ю Келліенн Конвей каналу NBC. Відео неякісне, хитке та піксельоване. Але Клінґман навмисне не завдав собі клопоту з графічними редакторами, щоб продемонструвати можливості цифрового алгоритму під назвою «генеративна змагальна мережа» (Generative adversarial network, GAN). Адже відео автоматично згенерувала комп’ютерна програма на основі старих музичних кліпів Франсуази Арді. Це – реалістичний запис того, що насправді ніколи не відбувалося.

 

Експеримент Клінґмана є передвісником похмурого майбутнього, в якому неможливо буде відрізнити істину від омани. Віра в правдивість писаного слова дедалі більше зазнає атак від того, що ми називаємо фейковими новинами. Але фото- та відеодокази для багатьох людей ще досі залишаються чимось внутрішньо правдивим. GAN – це початок технологічної хвилі, яка має всі шанси це зруйнувати. 

 

Підробити голос – найпростіше. Комп’ютерна програма може згенерувати голос будь-якої людини. Для цього їй достатньо послухати його запис, який вона, відтак, розбиває на мікрофрагменти, котрі й комбінує в слова та речення. Щоб зімітувати голос Трампа, достатньо надати машині записи його промов і надиктувати текст, який би ви хотіли вкласти йому в уста. Такі технологічні компанії, як британська DeepMind, Інститут глибинного навчання китайського цифрового гіганта Baidu та Інститут цифрових алгоритмів у Монреалі, вже створили дуже реалістичні алгоритми цифрового мовлення. Щоправда, вони ще потребують обчислювальних потужностей, які сьогодні доступні тільки великим компаніям, але це може змінитися вже у близькому майбутньому.  

 

Створювати штучні зображення дещо складніше. Програму GAN у 2014 р. створив студент Інституту цифрових алгоритмів Єн Ґудфеллоу під керівництвом одного з піонерів технології глибинного навчання Йошуа Бенджіо. Хоча попередні алгоритми машинного навчання дозволяли комп’ютерам досить легко розрізняти малюнки, наприклад, кота і собаки, програмі ніяк не вдавалося згенерувати правдоподібне зображення тварини на основі тренувальних ілюстрацій в її пам’яті.   

 

Щоб вирішити цю проблему, Ґудфеллоу використав звичну для людського суспільства ідею – змагання. Замість того, щоб вимагати від програми створити щось у вакуумі, він доповнив її цифровим противником, який інспектував згенеровані зображення і вирішував, наскільки вони правдоподібні. Відштовхуючись від противника, програма врешті-решт навчилась створювати досить правдиві зображення.  

 

Сьогодні GAN може згенерувати невеликі, розміром з марку, зображення птахів. Скажіть програмі, що вам потрібна біла пташка, у неї має бути трохи чорного на голові та крилах і довгий оранжевий дзьоб, – і машина намалює таку пташку спеціально для вас. Малюнки, звичайно, ще далекі від ідеальних, але на перший погляд видаються цілком правдивими.

 

Хоча зображення птахів розміром з марку мають мало шансів перевернути суспільство, речі швидко змінюються. За минулих п’ять років програми, які працюють на таких самих алгоритмах, дозволили зменшити кількість помилок під час розпізнавання фотографій із 25% до усього кількох відсотків. Майк Тука, художник, який працює з програмами машинного навчання в лабораторії Google, зумів згенерувати зображення людського обличчя з роздільною здатністю 768 пікселів на дюйм, що вдвічі перевищує усі попередні досягнення.

 

Ґудфеллоу очікує, що вже за три роки настане навала на YouTube штучних відео, які неможливо відрізнити від справжніх. Інші дослідники говорять про триваліші терміни, проте всі сходяться на думці, що це питання «коли», а не «якщо». «Я думаю, що штучний інтелект змінить зміст доказів, яким ми звикли довіряти», – каже Ґудфеллоу.

 

Технології, однак, породжують не лише нові види фейків, а й способи боротьби з ними. Один зі способів верифікації полягає в можливості завантажувати файли лише з вихідними даними про те, коли, де і як вони були зняті. Ця інформація дає змогу видалити неправдиву фотографію чи відео на основі, наприклад, незбігання з відомими місцевими умовами у зазначений час. Компанія NVIDIA, котра виготовляє чипи, на яких працює багато технологій у сфері штучного інтелекту, у 2014 р. проаналізувала фото висадки «Аполлона-11» на Місяць. Симулюючи поширення світла, фахівці NVIDIA довели, що дивні відблиски на скафандрі База Олдріна насправді є сонячним світлом, відбитим поверхнею Місяця, а не, як думають прихильники теорії «місячної змови», вогнями знімальної апаратури Голлівуду. Інший спосіб визначення автентичності відео – криптографія. Апаратура, яка знімала відео, може зашифрувати в нього унікальний ключ, який посвідчує його правдивість.      

 

У Міжнародній амністії вже тривалий час мають справу з деякими з цих викликів. В її лабораторії перевіряють зображення та відео зі сценами порушення прав людини. Використовуючи дані Google Earth, її фахівці перевіряють фонові ландшафти та визначають, чи та або інша фотографія або відео були зняті саме у тому місці, а не десь-інде. Крім того, за допомогою пошукової системи Wolfram Alpha вони відстежують погодні умови і визначають, чи вони збігаються з умовами на відео. Як правило, до Амністії потрапляють старі докази, які видають за нові, проте тепер їм доведеться мати справу і з штучно згенерованими.  

 

Історія підроблених знімків така сама давня, як і історія фотографії. «Попри презумцію правдивості, яка наділяє усі фото авторитетністю, робота фотографа часто не є винятком із хисткої комерції між мистецтвом і правдою», – пише Сьюзан Зонтаґ у своїй книжці «Про фотографію». Але цифрові технології виводять цю «комерцію» на вищий рівень: трудомісткий процес наведення об’єктива на реальність тепер можна взагалі пропустити.

 


Fake news: you ain’t seen nothing yet
The Economist, 1.07.2017
Зреферував Євген Ланюк

03.07.2017